quarta-feira, 27 novembro 2024
spot_imgspot_img
HomeVariedadeApocalipse? IA tem outros perigos mais reais, segundo especialista

Apocalipse? IA tem outros perigos mais reais, segundo especialista

Da Redação Avance News

Duas semanas após os membros do Congresso dos EUA questionaram o CEO da OpenAI, Sam Altman, sobre o potencial das ferramentas de IA (inteligência artificial) para espalhar desinformação, interromper eleições e eliminar empregos, ele e outros do setor vieram a público com uma possibilidade muito mais assustadora: um apocalipse causado pela IA.

Para quem tem pressa:

  • O Congresso dos EUA questionou o CEO da OpenAI, em maio, sobre potencial da IA para espalhar desinformação, interromper eleições e eliminar empregos;
  • Pouco depois, o executivo e outros do setor vieram a público com uma possibilidade muito mais assustadora: um apocalipse causado pela IA;
  • Enquanto alertam sobre potencial da IA para extinguir os humanos, os principais executivos do setor correm para investir e implantar essa tecnologia em produtos;
  • Alguns especialistas da indústria de IA dizem que focar a atenção em cenários distantes pode desviar a atenção dos danos mais imediatos dessa tecnologia;
  • Uma especialista disse que algumas empresas podem querer desviar a atenção do viés embutido em seus dados e também de reivindicações sobre como seus sistemas são treinados;
  • Segundo ela, “essas coisas parecem muito mais inteligentes do que são”, porque “somos tão inteligentes quanto podemos ser”.

Altman, cuja empresa está por trás do ChatGPT, juntou-se ao CEO do DeepMind (do Google), Demis Hassabis, ao CTO da Microsoft, Kevin Scott, e a dezenas de outros pesquisadores de IA e líderes empresariais na assinatura de uma carta, publicada em maio, com uma frase:

Mitigar o risco de extinção [dos humanos] pela IA deve ser uma prioridade global, ao lado de outros riscos em escala social, como pandemias e guerra nuclear.

Leia mais:

O aviso severo foi amplamente divulgado na imprensa, com alguns sugerindo que mostrava a necessidade de levar esses cenários apocalípticos mais a sério. Mas também destaca uma dinâmica importante no Vale do Silício no momento.

Os principais executivos de algumas das maiores empresas de tecnologia estão simultaneamente dizendo ao público que a IA tem o potencial de causar a extinção humana, ao mesmo tempo em que correm para investir e implantar essa tecnologia em produtos disponibilizados para bilhões de pessoas.

IA e a cortina de fumaça

Ilustração de mão robótica segurando folha de papel com quadrados rosas em volta
(Imagem: Rawpixel)

A dinâmica também ocorreu em outros lugares recentemente. O CEO da Tesla, Elon Musk, por exemplo, disse numa entrevista na TV, em abril, que a IA poderia levar à “destruição da civilização”. Mas ele continua profundamente envolvido com a tecnologia por meio de investimentos em seu amplo império empresarial e disse que quer criar um rival para as ofertas de IA da Microsoft e do Google.

Alguns especialistas da indústria de IA dizem que focar a atenção em cenários distantes pode desviar a atenção dos danos mais imediatos que uma nova geração de poderosas ferramentas de IA pode causar a pessoas e comunidades, incluindo espalhar desinformação, perpetuar preconceitos e permitir a discriminação em vários serviços.

“Os motivos pareciam ser mistos”, disse Gary Marcus – pesquisador de IA e professor emérito da Universidade de Nova York que testemunhou perante os legisladores ao lado de Altman em maio – à CNN.

Alguns dos executivos provavelmente estão “genuinamente preocupados com o que desencadearam”, disse ele. Mas outros podem estar tentando focar a atenção em “possibilidades abstratas para diminuir as possibilidades mais imediatas”.

Realidade x ficção científica

Inteligência artificial do filme Odisséia no Espaço
(Imagem: Reprodução)

Para Marcus, um autodenominado crítico do hype da IA, “a maior ameaça imediata da IA ​​é a ameaça à democracia da produção em massa de desinformação convincente”.

Ferramentas de IA generativas, como o ChatGPT e o Dall-E da OpenAI, são treinadas em vastos tesouros de dados on-line para criar trabalhos escritos e imagens atraentes em resposta às solicitações do usuário. Com essas ferramentas, por exemplo, pode-se rapidamente imitar o estilo ou semelhança de figuras públicas na tentativa de criar campanhas de desinformação.

Em seu depoimento perante o Congresso, Altman também disse que o potencial da IA ​​ser usada para manipular os eleitores e direcionar a desinformação estava entre “minhas áreas de maior preocupação”.

Rosto do robô com expressão de raiva e agressão, perigo dos avanços da inteligência artificial
(Imagem: Pong Ch/Shutterstock)

Mesmo em casos de uso mais comuns, no entanto, há preocupações. As mesmas ferramentas foram criticadas por oferecer respostas erradas às solicitações do usuário, além de mentir e potencialmente perpetuar preconceitos raciais e de gênero.

Emily Bender, professora da Universidade de Washington e diretora de seu Laboratório de Linguística Computacional, disse à CNN que algumas empresas podem querer desviar a atenção do viés embutido em seus dados e também de reivindicações sobre como seus sistemas são treinados.

Bender citou preocupações de propriedade intelectual com alguns dos dados em que esses sistemas são treinados, bem como alegações de empresas que terceirizam o trabalho de passar por algumas das piores partes dos dados de treinamento para trabalhadores de baixa remuneração no exterior.

Se o público e os reguladores puderem se concentrar nesses cenários imaginários de ficção científica, talvez essas empresas possam se safar do roubo de dados e das práticas de exploração por mais tempo.

Emily Bender, professora da Universidade de Washington e diretora de seu Laboratório de Linguística Computacional

Influenciando reguladores

CEO da OpenAI e criador do ChatGPT, Sam Altman, durante audiência no Congresso dos Estados Unidos
(Imagem: Patrick Semansky/AP Photo)

Os reguladores podem ser o verdadeiro público-alvo das mensagens apocalípticas da indústria de tecnologia. Como diz Bender, os executivos estão basicamente dizendo: “’Essa coisa é muito, muito perigosa e somos os únicos que entendem como controlá-la’”.

A julgar pelo comparecimento de Altman perante o Congresso, essa estratégia pode funcionar. Altman pareceu conquistar Washington ao ecoar as preocupações dos legisladores sobre a IA – uma tecnologia que muitos no Congresso ainda estão tentando entender – e oferecer sugestões de como lidar com isso.

Essa abordagem da regulamentação seria “extremamente problemática”, disse Bender. Isso poderia dar à indústria influência sobre os reguladores encarregados de responsabilizá-la e também deixar de fora as vozes e contribuições de outras pessoas e comunidades que sofrem impactos negativos dessa tecnologia.

Bender disse que tenta, em todas as oportunidades, dizer às pessoas que “essas coisas parecem muito mais inteligentes do que são”. Como ela disse, isso ocorre porque “somos tão inteligentes quanto somos” e a maneira como entendemos a linguagem, incluindo as respostas da IA, “é na verdade imaginando uma mente por trás disso”.

Por fim, Bender apresentou uma pergunta simples para a indústria de tecnologia sobre IA:

Se eles acreditam honestamente que isso pode estar causando a extinção humana, então por que não parar?

Outro lado

Representantes do Google e da OpenAI não responderam ao pedido da CNN de comentário sobre este contexto.

Em um comunicado, um porta-voz da Microsoft disse:

Estamos otimistas sobre o futuro da IA ​​e achamos que os avanços da IA ​​resolverão muito mais desafios do que apresentam, mas também temos sido consistentes em nossa crença de que, quando você cria tecnologias que podem mudar o mundo, você também deve garantir que a tecnologia seja usada com responsabilidade.

Com informações da CNN

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!



Fonte: Olhar Digital

VEJA TAMBÉM

COMENTE

Por favor, digite seu comentário!
Por favor, digite seu nome aqui

spot_img
spot_img

POPULAR

COMENTÁRIOS