Da Redação Avance News
Tudo sobre ChatGPT
Tudo sobre Inteligência Artificial
Tudo sobre OpenAI
A OpenAI anunciou mudanças significativas na forma como treina seus modelos de inteligência artificial, incluindo o ChatGPT. A nova diretriz, divulgada na quarta-feira (12), enfatiza a busca pela “liberdade intelectual”, permitindo que o chatbot responda a uma gama mais ampla de perguntas e ofereça múltiplas perspectivas sobre temas polêmicos.
A atualização também reduz as restrições que impediam a IA de abordar determinados assuntos. O anúncio faz parte da revisão do Model Spec, um documento de 187 páginas que define como o ChatGPT deve se comportar.
- Mais liberdade para responder perguntas: a OpenAI quer que o ChatGPT forneça respostas sem tomar partido ou evitar temas controversos, permitindo que o usuário tenha acesso a diferentes pontos de vista.
- Mudanças na política de moderação: a empresa retirou alertas que informavam aos usuários quando violavam as diretrizes da plataforma, tornando a experiência menos restritiva.
- Possível impacto político e comercial: a decisão pode ser vista como uma resposta às críticas de censura feitas por setores conservadores e um esforço para manter boas relações com o governo dos EUA.
O motivo por trás da mudança de diretriz da OpenAI
Nos últimos meses, a OpenAI recebeu críticas por supostamente favorecer certas perspectivas políticas. A empresa afirma que a mudança não é uma resposta direta a pressões externas, mas sim uma tentativa de dar mais autonomia aos usuários.
Ainda assim, alguns especialistas acreditam que a decisão pode estar alinhada a uma estratégia para melhorar a relação com o governo Trump, que já criticou gigantes da tecnologia por práticas de moderação.
O CEO da OpenAI, Sam Altman, já havia reconhecido em postagens anteriores que o ChatGPT apresentava vieses e que a empresa estava trabalhando para corrigi-los. Agora, com a nova diretriz, a OpenAI sinaliza que pretende ampliar o leque de respostas fornecidas pela IA, sem restringir determinados temas.
Leia também:
Debate sobre segurança e liberdade de expressão na IA
O novo posicionamento da OpenAI levanta um debate maior sobre a moderação de conteúdo em inteligência artificial. Empresas como Meta e X (antigo Twitter) também flexibilizaram suas políticas, priorizando a liberdade de expressão. Contudo, especialistas alertam que essa abordagem pode facilitar a disseminação de desinformação, discursos extremistas e até conspirações.
Alguns, incluindo o cofundador da OpenAI, John Schulman, argumentam que essa é a postura correta para o ChatGPT. Dean Ball, pesquisador do Mercatus Center da George Mason University, concorda. Em entrevista ao TechCrunch, ele afirmou:
Acho que a OpenAI está certa em pressionar na direção de mais discurso. À medida que os modelos de IA se tornam mais inteligentes e vitais para a maneira como as pessoas aprendem sobre o mundo, essas decisões se tornam mais importantes.
A OpenAI defende que sua IA deve atuar como uma ferramenta informativa e não como uma entidade que molda a sociedade. No entanto, o desafio de equilibrar liberdade de expressão e responsabilidade na disseminação de informações continua sendo um dos maiores dilemas da tecnologia.