Web Summit Rio recebeu a presidente do aplicativo de mensagens Signal e a ex-militar que ficou conhecida por vazar milhares de documentos confidenciais dos EUA. Elas defenderam que ferramentas devem priorizar o interesse público, e não o de grandes empresas. Meredith Whittaker e Chelsea Manning durante Web Summit Rio, em foto de 2 de março de 2023
Piaras Ó Mídheach/Web Summit Rio via Sportsfile
As empresas de tecnologia devem ser mais responsabilizadas pelos potenciais riscos de sistemas de inteligência artificial (IA), apontaram nesta terça-feira (2) duas palestrantes do Web Summit Rio, o maior evento de tecnologia do mundo.
O assunto foi discutido por Meredith Whitakker, presidente da fundação que mantém o aplicativo de mensagens com foco em privacidade Signal, e Chelsea Manning, especialista em segurança e ex-militar que ficou conhecida por um enorme vazamento de documentos confidenciais dos Estados Unidos em 2010.
Meredith apontou que as ferramentas de IA exigem uma infraestrutura de servidores significativa e uma grande quantidade de dados. Segundo ela, esses recursos estão disponíveis para um pequeno grupo de empresas, como Amazon, Microsoft e Google.
“Há apenas algumas organizações no mundo que têm os recursos exigidos para criar inteligência artificial em larga escala do começo ao fim. São as grandes empresas de tecnologia”, afirmou.
Para a presidente do Signal, se houver uma regulação sobre inteligência artificial, ela precisa se concentrar nestes recursos que estão disponíveis apenas para um pequeno grupo de empresas.
“As grandes empresas de tecnologia dizem que querem regulação, mas têm pessoas no Congresso tentando garantir que elas escrevam essa regulação. Precisamos de outras medidas que exijam que, quando a IA for adotada, ela vai contemplar o interesse público”, continuou.
Problemas de privacidade devem continuar
Chelsea Manning, que, há 13 anos, vazou para o WikiLeaks mais de 700 mil documentos militares e diplomáticos confidenciais dos EUA, afirmou que o interesse por IA é novo, mas os riscos em torno dela são antigos.
“Certamente, muitos problemas de privacidade que vemos nos últimos 15 anos continuarão. Mas também acho que, com o advento de grandes modelos [de IA] para linguagem e visão, há uma grande oportunidade”, analisou.
Para ela, a questão está em como as empresas e os desenvolvedores usam a inteligência artificial e o que desenvolvem a partir dela.
“Enquanto ‘nos movemos rapidamente e quebramos coisas’, temos que pensar nas consequências do que isso significa para as pessoas”, disse em referência ao antigo slogan do Facebook, que, em 2014, foi substituído para “mova-se rapidamente com infraestrutura estável”.
LEIA TAMBÉM:
O ‘padrinho’ da IA que se demitiu do Google e alerta sobre perigos da tecnologia
Musk, cofundador da Apple e mais: quem apoia pausa nos avanços em inteligência artificial
Na manhã de sábado, 12 de outubro, dia de Nossa Senhora Aparecida, Padroeira do Brasil,…
Certificado lista destinos em áreas costeiras que tiveram compromisso com a preservação ambiental e o…
Gisèle Pelicot abriu mão do anonimato para tornar público o julgamento de seu ex-marido e…
"Embora 99,999% dos usuários do Telegram não tenham nada a ver com crimes, os 0,001%…
Mesmo com o imposto de 100% sobre o valor dos veículos americanos, os carros elétricos…
A medida tem como objetivo garantir o direito ao voto para o eleitor. A restrição…