Pesquisar
Feche esta caixa de pesquisa.

IA já reduz tempo de pesquisa e orienta experimentos científicos

Redação Culturize-se

A inteligência artificial entrou de vez no laboratório e no debate sobre o que significa “fazer ciência”. Em um momento em que sistemas generativos já redigem textos, resumem literatura e sugerem hipóteses, um episódio recente colocou a questão em termos ainda mais ambiciosos: a ideia de que uma IA poderia resolver problemas matemáticos clássicos, historicamente reservados a especialistas de elite.

Foi nesse contexto que a startup Harmonic afirmou que sua tecnologia, batizada de Aristotle, teria resolvido um “problema de Erdős” — conjunto de desafios formulados pelo matemático Paul Erdős, figura central da matemática do século 20. A solução, segundo a empresa, teria contado com a colaboração do GPT-5.2 Pro, da OpenAI. Para parte da comunidade científica, o feito funcionou como um símbolo: a IA estaria chegando a um ponto em que poderia realizar pesquisa acadêmica legítima, indo além do papel de ferramenta auxiliar.

Mas a reação também foi imediata e dividida. Para alguns especialistas, a suposta “descoberta” pareceu menos uma ruptura e mais uma reorganização eficiente do que já existia. “Para mim, parece um aluno muito esperto que decorou tudo para a prova, mas não tem um entendimento profundo do conceito”, afirmou Terence Tao, professor da UCLA, frequentemente descrito como o maior matemático de sua geração. A crítica toca no coração do debate contemporâneo: a IA está produzindo conhecimento novo ou apenas recombinando, em alta velocidade, o que humanos já produziram?

Essa distinção é crucial porque aponta para dois caminhos possíveis. Em um cenário, a IA se tornaria uma espécie de “coautora” da ciência, capaz de gerar ideias originais e conduzir investigação com autonomia crescente. No outro, funcionaria como um acelerador de trabalho humano, reduzindo esforço repetitivo e ampliando a capacidade de síntese, mas ainda dependente da supervisão de pesquisadores experientes para que resultados façam sentido.

O episódio envolvendo Erdős ilustra bem essa ambiguidade. O entusiasmo em torno das habilidades matemáticas do GPT-5 começou quando Kevin Weil, vice-presidente de ciência da OpenAI, escreveu nas redes sociais que a tecnologia havia encontrado soluções para 10 problemas antes considerados sem resposta e avançado em outros 11. A publicação foi apagada após pesquisadores apontarem que, em muitos casos, o sistema apenas havia localizado soluções já existentes, dispersas em décadas de artigos acadêmicos e livros didáticos — incluindo textos em alemão, difíceis de rastrear até para matemáticos especializados.

Mesmo assim, o caso não foi tratado como um fracasso. Pelo contrário: para matemáticos como Thomas Bloom, da Universidade de Manchester, que mantém um site dedicado aos problemas de Erdős, a habilidade de “minerar” literatura acadêmica e recuperar referências escondidas já representa um salto prático. O que estava em jogo, portanto, não era apenas originalidade, mas também eficiência: a IA pode não inventar um método, mas pode encurtar em meses, ou anos, o tempo gasto na busca por pistas relevantes.

Foto: Reprodução/Internet

Evolução contínua

A discussão também expõe como os sistemas evoluíram desde o lançamento do ChatGPT, no fim de 2022. As tecnologias atuais são redes neurais treinadas para identificar padrões em textos, imagens e outros dados e, depois, gerar conteúdo semelhante. Nos últimos anos, empresas como OpenAI e Google passaram a reforçar esse treinamento com técnicas de aprendizado por reforço, em que a IA aprende por tentativa e erro, ajustando seu desempenho com base em objetivos e avaliações. O resultado é que modelos como o GPT-5 passaram a apresentar melhor desempenho em tarefas que exigem raciocínio matemático, programação e resolução estruturada de problemas; ainda que esse “raciocínio” não seja idêntico ao humano e possa se estender por longos períodos de computação.

A fronteira entre ferramenta e pesquisador, porém, fica ainda mais complexa quando a IA passa a ser usada não só para sugerir caminhos, mas para verificar formalmente se uma solução está correta. Um exemplo citado no debate envolve os matemáticos britânicos Kevin Barreto e Liam Price, que utilizaram o GPT-5 para resolver um problema antes sem solução e recorreram ao Aristotle, da Harmonic, para checar a prova. Diferentemente de modelos generativos, o Aristotle usa uma linguagem de programação especializada para validar respostas com rigor lógico. A colaboração humana ainda existiu — os pesquisadores ajustaram o direcionamento quando necessário —, mas a percepção de parte da comunidade é que a IA já atravessou o limiar do “apoio” e passou a atuar como parceira em etapas centrais do trabalho acadêmico.

Esse avanço, no entanto, não elimina o ceticismo. Tao avaliou que a solução se baseava em métodos amplamente conhecidos e que o problema talvez estivesse menos explorado na literatura por falta de consenso recente sobre sua formulação. Bloom também reconheceu o mérito do resultado, mas afirmou não ter visto evidências de que a IA já consiga gerar ideias que humanos não alcançam — e disse que ficaria surpreso se isso ocorresse tão cedo. A conclusão implícita é que, por enquanto, a IA pode ser altamente competente em interpolação — preencher lacunas dentro do que já é conhecido —, mas ainda falha quando precisa extrapolar, ou seja, produzir saltos conceituais genuínos.

Essa limitação aparece também em áreas fora da matemática. Na biomedicina, por exemplo, o pesquisador Derya Unutmaz, do Jackson Laboratory, descreve a IA como uma ferramenta que já é capaz de sugerir hipóteses ou experimentos que ele e seus colegas não tinham considerado. Ele faz uma distinção importante: não se trata necessariamente de uma “descoberta”, mas de uma proposta que reorganiza prioridades e economiza energia. Se a IA permite reduzir de 50 para cinco os experimentos necessários, o impacto é profundo — e altera a dinâmica de custo, tempo e foco na produção científica.

É exatamente esse tipo de transformação que aparece no relatório analisado pela CAPES, que descreve como a inteligência artificial vem mudando não apenas a pesquisa em si, mas também a gestão do financiamento e os mecanismos de avaliação científica. O documento destaca oportunidades como automação de revisão por pares, triagem de propostas e análise de grandes volumes de dados — e aponta iniciativas internacionais que buscam equilibrar inovação e integridade, como o projeto GRAIL e o marco legal europeu AI Act. A mensagem central é que a IA tende a se consolidar como infraestrutura do ecossistema científico, desde que acompanhada de governança, transparência e supervisão humana.

O ponto sensível é que, na mesma medida em que acelera descobertas, a IA pode ampliar riscos antigos e criar novos. Um dos desafios mais citados é o aumento de fraude e plágio sofisticado. Ferramentas generativas conseguem produzir artigos falsos com aparência convincente, imitando estilo acadêmico e estrutura argumentativa. Além disso, há o risco de manipulação de imagens científicas, com geração de figuras aparentemente legítimas e até duplicações atribuídas a experimentos diferentes. Isso coloca pressão sobre revistas, comitês e universidades, que passam a enfrentar um ambiente em que “parecer verdadeiro” é cada vez mais fácil.

Nesse cenário, a discussão sobre autoria ganha peso. Agências como o Conselho Europeu de Pesquisa alertam que o uso de IA não reduz a responsabilidade do autor humano sobre plágio, conduta científica e integridade. Ou seja: a IA pode ser uma ferramenta, mas a assinatura, e o risco, continuam sendo humanos. Também entram em pauta questões de privacidade, confidencialidade e propriedade intelectual, especialmente quando pesquisadores alimentam sistemas comerciais com dados sensíveis ou resultados ainda inéditos.

Foto: Reprodução/Internet

No campo metodológico, outro dilema se impõe: transparência e reprodutibilidade. Modelos opacos podem gerar resultados difíceis de auditar, e há um debate crescente sobre a validade de avaliações automatizadas de impacto científico. Além disso, o treinamento de algoritmos pode reforçar vieses já presentes nos dados — e existe um risco ainda mais estrutural, conhecido como “colapso do modelo”, quando sistemas de IA passam a ser treinados com dados gerados por outras IAs. Nesse ciclo, erros se acumulam, padrões artificiais se amplificam e o ecossistema de conhecimento pode se contaminar, dificultando distinguir o que é achado genuíno do que é ruído sintético.

Ao mesmo tempo, a IA também aparece como parte da solução. Softwares baseados em aprendizado de máquina podem ajudar a detectar manipulações e duplicações em imagens, identificar padrões de fraude e medir indicadores de rigor em preprints. Ou seja: a tecnologia que aumenta a sofisticação do problema também pode reforçar os instrumentos de controle — desde que aplicada com critérios claros e não substitua julgamento humano em decisões sensíveis.

Essa tensão também se estende ao ensino superior. Guias como o da Unesco apontam que a IA pode melhorar a experiência de aprendizagem, oferecendo apoio personalizado e ampliando acesso a recursos. Mas há preocupação com o efeito colateral: a facilidade de produzir textos sem leitura ou reflexão pode reduzir habilidades como escrita, pensamento crítico e argumentação. O debate sobre novas formas de avaliação — incluindo provas orais e modelos que valorizem processo e raciocínio — não é novo, mas ganha urgência quando a tecnologia deixa de ser exceção e se torna padrão.

O que emerge desse conjunto de relatos é uma fotografia do presente: a IA ainda não substituiu cientistas, mas mudou o que significa ser um cientista eficiente. Ela não elimina a necessidade de expertise; em muitos casos, exige ainda mais repertório para formular bons comandos, avaliar saídas, separar o útil do irrelevante e evitar armadilhas metodológicas. “Eu ainda sou relevante, talvez até mais relevante”, disse Unutmaz, resumindo a sensação de que a IA funciona melhor quando colocada nas mãos de pesquisadores experientes — e pior quando usada como atalho.

No fim, a pergunta que permanece não é apenas se a IA é capaz de resolver um problema de Erdős. É se o sistema científico está preparado para lidar com uma tecnologia que acelera a produção de conhecimento e, simultaneamente, acelera a produção de distorções. O desafio de 2026 em diante pode ser menos sobre “máquinas brilhantes” e mais sobre instituições capazes de criar regras, transparência e cultura de responsabilidade para que o brilho não se confunda com ilusão.

Isso pode te interessar

Artes Plásticas

Faria Lima vira galeria a céu aberto com projeto ABERTO Rua

Arquitetura & Urbanismo

Concreto e permanência: por que o brutalismo nunca saiu de moda

Do pós-guerra europeu às avenidas de Curitiba, a estética do concreto aparente resiste ao tempo

Música

Spotify lança ferramenta para artistas controlarem o próprio nome nas plataformas

Novo recurso permite revisar e aprovar lançamentos antes que apareçam no perfil

Pensar

Em alta, geopolítica afetiva doutrina respostas emocionais a conflitos de toda sorte

Newsletter Gratuita

Tenha o melhor da cultura na palma da sua mão. Assine a newsletter gratuita de Culturize-se. Todos os dias pela manhã na sua caixa de e-mail.