Da Redação Avance News
Tudo sobre ChatGPT
Tudo sobre Inteligência Artificial
Duas semanas após os membros do Congresso dos EUA questionaram o CEO da OpenAI, Sam Altman, sobre o potencial das ferramentas de IA (inteligência artificial) para espalhar desinformação, interromper eleições e eliminar empregos, ele e outros do setor vieram a público com uma possibilidade muito mais assustadora: um apocalipse causado pela IA.
Para quem tem pressa:
- O Congresso dos EUA questionou o CEO da OpenAI, em maio, sobre potencial da IA para espalhar desinformação, interromper eleições e eliminar empregos;
- Pouco depois, o executivo e outros do setor vieram a público com uma possibilidade muito mais assustadora: um apocalipse causado pela IA;
- Enquanto alertam sobre potencial da IA para extinguir os humanos, os principais executivos do setor correm para investir e implantar essa tecnologia em produtos;
- Alguns especialistas da indústria de IA dizem que focar a atenção em cenários distantes pode desviar a atenção dos danos mais imediatos dessa tecnologia;
- Uma especialista disse que algumas empresas podem querer desviar a atenção do viés embutido em seus dados e também de reivindicações sobre como seus sistemas são treinados;
- Segundo ela, “essas coisas parecem muito mais inteligentes do que são”, porque “somos tão inteligentes quanto podemos ser”.
Altman, cuja empresa está por trás do ChatGPT, juntou-se ao CEO do DeepMind (do Google), Demis Hassabis, ao CTO da Microsoft, Kevin Scott, e a dezenas de outros pesquisadores de IA e líderes empresariais na assinatura de uma carta, publicada em maio, com uma frase:
Mitigar o risco de extinção [dos humanos] pela IA deve ser uma prioridade global, ao lado de outros riscos em escala social, como pandemias e guerra nuclear.
Leia mais:
O aviso severo foi amplamente divulgado na imprensa, com alguns sugerindo que mostrava a necessidade de levar esses cenários apocalípticos mais a sério. Mas também destaca uma dinâmica importante no Vale do Silício no momento.
Os principais executivos de algumas das maiores empresas de tecnologia estão simultaneamente dizendo ao público que a IA tem o potencial de causar a extinção humana, ao mesmo tempo em que correm para investir e implantar essa tecnologia em produtos disponibilizados para bilhões de pessoas.
IA e a cortina de fumaça
A dinâmica também ocorreu em outros lugares recentemente. O CEO da Tesla, Elon Musk, por exemplo, disse numa entrevista na TV, em abril, que a IA poderia levar à “destruição da civilização”. Mas ele continua profundamente envolvido com a tecnologia por meio de investimentos em seu amplo império empresarial e disse que quer criar um rival para as ofertas de IA da Microsoft e do Google.
Alguns especialistas da indústria de IA dizem que focar a atenção em cenários distantes pode desviar a atenção dos danos mais imediatos que uma nova geração de poderosas ferramentas de IA pode causar a pessoas e comunidades, incluindo espalhar desinformação, perpetuar preconceitos e permitir a discriminação em vários serviços.
“Os motivos pareciam ser mistos”, disse Gary Marcus – pesquisador de IA e professor emérito da Universidade de Nova York que testemunhou perante os legisladores ao lado de Altman em maio – à CNN.
Alguns dos executivos provavelmente estão “genuinamente preocupados com o que desencadearam”, disse ele. Mas outros podem estar tentando focar a atenção em “possibilidades abstratas para diminuir as possibilidades mais imediatas”.
Realidade x ficção científica
Para Marcus, um autodenominado crítico do hype da IA, “a maior ameaça imediata da IA é a ameaça à democracia da produção em massa de desinformação convincente”.
Ferramentas de IA generativas, como o ChatGPT e o Dall-E da OpenAI, são treinadas em vastos tesouros de dados on-line para criar trabalhos escritos e imagens atraentes em resposta às solicitações do usuário. Com essas ferramentas, por exemplo, pode-se rapidamente imitar o estilo ou semelhança de figuras públicas na tentativa de criar campanhas de desinformação.
Em seu depoimento perante o Congresso, Altman também disse que o potencial da IA ser usada para manipular os eleitores e direcionar a desinformação estava entre “minhas áreas de maior preocupação”.
Mesmo em casos de uso mais comuns, no entanto, há preocupações. As mesmas ferramentas foram criticadas por oferecer respostas erradas às solicitações do usuário, além de mentir e potencialmente perpetuar preconceitos raciais e de gênero.
Emily Bender, professora da Universidade de Washington e diretora de seu Laboratório de Linguística Computacional, disse à CNN que algumas empresas podem querer desviar a atenção do viés embutido em seus dados e também de reivindicações sobre como seus sistemas são treinados.
Bender citou preocupações de propriedade intelectual com alguns dos dados em que esses sistemas são treinados, bem como alegações de empresas que terceirizam o trabalho de passar por algumas das piores partes dos dados de treinamento para trabalhadores de baixa remuneração no exterior.
Se o público e os reguladores puderem se concentrar nesses cenários imaginários de ficção científica, talvez essas empresas possam se safar do roubo de dados e das práticas de exploração por mais tempo.
Emily Bender, professora da Universidade de Washington e diretora de seu Laboratório de Linguística Computacional
Influenciando reguladores
Os reguladores podem ser o verdadeiro público-alvo das mensagens apocalípticas da indústria de tecnologia. Como diz Bender, os executivos estão basicamente dizendo: “’Essa coisa é muito, muito perigosa e somos os únicos que entendem como controlá-la’”.
A julgar pelo comparecimento de Altman perante o Congresso, essa estratégia pode funcionar. Altman pareceu conquistar Washington ao ecoar as preocupações dos legisladores sobre a IA – uma tecnologia que muitos no Congresso ainda estão tentando entender – e oferecer sugestões de como lidar com isso.
Essa abordagem da regulamentação seria “extremamente problemática”, disse Bender. Isso poderia dar à indústria influência sobre os reguladores encarregados de responsabilizá-la e também deixar de fora as vozes e contribuições de outras pessoas e comunidades que sofrem impactos negativos dessa tecnologia.
Bender disse que tenta, em todas as oportunidades, dizer às pessoas que “essas coisas parecem muito mais inteligentes do que são”. Como ela disse, isso ocorre porque “somos tão inteligentes quanto somos” e a maneira como entendemos a linguagem, incluindo as respostas da IA, “é na verdade imaginando uma mente por trás disso”.
Por fim, Bender apresentou uma pergunta simples para a indústria de tecnologia sobre IA:
Se eles acreditam honestamente que isso pode estar causando a extinção humana, então por que não parar?
Outro lado
Representantes do Google e da OpenAI não responderam ao pedido da CNN de comentário sobre este contexto.
Em um comunicado, um porta-voz da Microsoft disse:
Estamos otimistas sobre o futuro da IA e achamos que os avanços da IA resolverão muito mais desafios do que apresentam, mas também temos sido consistentes em nossa crença de que, quando você cria tecnologias que podem mudar o mundo, você também deve garantir que a tecnologia seja usada com responsabilidade.
Com informações da CNN
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!