Semana após semana temos discutido o uso da inteligência artificial (IA). Agora é hora de falar de como o uso desse tipo de ferramenta pode ser perigoso na ciência. Quem trouxe o assunto nesta semana foi o colunista Diogo Cortiz, de Tilt.. Alguns cientistas estão usando IA para encurtar caminhos e acabam produzindo artigos de péssima qualidade, mas com um verniz científico, o que é ainda mais perigoso para o conhecimento humano. Entre os exemplos, está um artigo publicado na revista científica "Frontiers in Cell and Developmental Biology". Os autores do texto chegaram a criar nomes inexistentes para supostas células, como "Iollotte sserotgomar" e "testtomcels", e ainda produziram uma ilustração bizarra com IA de um rato com um testículo quase maior do que o seu corpo. Mas a produção de artigos de maneira automatizada não é o único problema. Existe um outro, silencioso e ainda mais sensível: a confiança exagerada, sem senso crítico, em sistemas de IA. Apesar de oferecer bons resultados, a IA está longe de ter uma habilidade sobrehumana a qual podemos confiar sem questionar seus resultados. O desafio é que uma parcela da comunidade científica, especialmente aquela que não está trabalhando diretamente com a temática de IA, muitas vezes não entende todas essas limitações. Em um artigo publicado recentemente na "Nature", pesquisadores argumentam que as soluções de IA podem explorar as nossas limitações cognitivas e criar uma "falsa ilusão de entendimento", nos fazendo sentir que entendemos algo melhor do que realmente acontece. Os autores analisaram mais de 100 artigos para elaborar um panorama das maneiras como os cientistas veem os sistemas de IA. A partir disso, chegaram a 4 visões distintas que a comunidade científica tem sobre IA: - Oráculo: uma entidade capaz de ler incansavelmente e em uma velocidade absurda os artigo científicos, examinando a literatura científica de uma maneira mais abrangente do que os humanos.
- Árbitro: uma avaliadora de descobertas científicas de uma forma mais objetiva, que não tem propensão para selecionar uma literatura que suporte uma ideia.
- Quantitativo: uma ferramenta que ultrapassa os limites da mente humana em uma análise complexa de um vasto conjunto de dados.
- Substituto: as ferramentas de IA têm potencial para simular dados que são muito difíceis ou complexos de obter.
Entre vários riscos relatados no artigo, Cortiz destacou a "ilusão da amplitude exploratória", uma ilusão de compreensão. Ocorre quando os cientistas acreditam falsamente que estão explorando todo o universo possível de hipóteses testáveis, mas, na verdade, estão explorando apenas um espaço restrito das ferramentas de IA. Esse é um risco sensível especialmente quando se usa IA para estudar sobre a subjetividade e o comportamento humano. Hoje, está começando a ficar na moda usar a tecnologia para investigar o comportamento a partir de simulações que podem ser feitas a partir de agentes inteligentes. O problema é que ainda não é possível capturar toda a existência humana - e talvez nunca seja -, mas muitos pesquisadores não se atentam a essas limitações. O que precisamos é alertar a comunidade científica para um uso crítico das ferramentas e que possamos até mesmo repensar o fazer científico. O modelo de ciência hoje, em que tudo é avaliado pela quantidade de publicações, fortalece a tendência de uso da IA numa espécie de processo de terceirização. De fato, a gente precisa sempre lembrar a sociedade de que a Inteligência Artificial não substitui a falta de conhecimento. |
Comentários