Entender o potencial ou os riscos das novas habilidades da IA significa ter uma compreensão clara do que essas habilidades são – e não são
Redação Culturize-se*
Depois que a OpenAI lançou o ChatGPT, então alimentado pelo GPT-3, em novembro de 2022, ele surpreendeu o mundo com sua capacidade de escrever poesia e prosa sobre uma vasta gama de assuntos, resolver problemas de codificação e sintetizar conhecimento da web. Mas o espanto tem sido acompanhado por choque e preocupação com o potencial de fraude acadêmica, desinformação e desemprego em massa – e temores de que empresas como a Microsoft estejam correndo para desenvolver tecnologia que possa se mostrar perigosa.
Entender o potencial ou os riscos das novas habilidades da IA significa ter uma compreensão clara do que essas habilidades são – e não são. Mas, embora haja um amplo acordo de que o ChatGPT e sistemas similares dão aos computadores novas habilidades significativas, os pesquisadores estão apenas começando a estudar esses comportamentos e determinar o que está acontecendo por trás do prompt.
Enquanto a OpenAI promove o GPT-4 ao exaltar seu desempenho em exames de faculdade de direito e medicina, cientistas que estudam aspectos da inteligência humana afirmam que suas capacidades notáveis diferem das nossas de maneiras cruciais. A tendência dos modelos de inventar coisas é bem conhecida, mas a divergência é mais intensa. E com milhões de pessoas usando a tecnologia todos os dias e empresas apostando seu futuro nela, este é um mistério de enorme importância.
Pesquisadores de inteligência artificial na Microsoft foram inspirados a entrar no debate por suas experiências com o GPT-4. Poucas semanas após o sistema ter sido integrado ao Bing, em um negócio de U$ 10 bilhões, e seu novo recurso de chat ter sido lançado, a empresa divulgou um artigo afirmando que, em experimentos iniciais, o GPT-4 mostrou “faíscas de inteligência artificial geral”.
Os autores apresentaram alguns exemplos em que o sistema realizou tarefas que parecem refletir uma inteligência mais geral, significativamente além de sistemas anteriores como o GPT-3. Os exemplos mostram que, ao contrário da maioria dos programas de IA anteriores, o GPT-4 não está limitado a uma tarefa específica, mas pode se voltar para todos os tipos de problemas – uma qualidade necessária da inteligência geral.
Os autores também sugerem que esses sistemas demonstram habilidade para raciocinar, planejar, aprender com a experiência e transferir conceitos de uma modalidade para outra, como de texto para imagens. “Dada a amplitude e profundidade das capacidades do GPT-4, acreditamos que ele poderia ser razoavelmente considerado como uma versão inicial (mas ainda incompleta) de um sistema de inteligência geral artificial (AGI)”, afirma o artigo.
Muitos desacordos e algumas concordâncias
O artigo de Bubeck, escrito com outras 14 pessoas, incluindo o diretor científico da Microsoft, foi alvo de resistência de pesquisadores de IA e especialistas em mídias sociais. O uso do termo AGI, uma descrição vaga às vezes usado para aludir à ideia de máquinas superinteligentes ou divinas, irritou alguns pesquisadores, que o viram como um sintoma da atual histeria.
O fato de a Microsoft ter investido mais de US$10 bilhões na OpenAI sugeriu a alguns pesquisadores que os especialistas em IA da empresa tinham incentivo para exagerar o potencial do GPT-4 enquanto minimizavam suas limitações. Outros reclamaram que os experimentos são impossíveis de replicar porque o GPT-4 raramente responde da mesma maneira quando um prompt é repetido, e porque a OpenAI não compartilhou detalhes de seu design. Claro, as pessoas também perguntaram por que o GPT-4 ainda comete erros ridículos se é realmente tão inteligente.
Talia Ringer, uma professora da Universidade de Illinois, diz que o artigo da Microsoft “mostra alguns fenômenos interessantes e depois faz algumas afirmações realmente exageradas”. Eles afirmam que promover sistemas altamente inteligentes incentiva os usuários a confiar neles, mesmo quando são profundamente falhos. Ringer também aponta que, embora possa ser tentador emprestar ideias de sistemas desenvolvidos para medir a inteligência humana, muitos se mostraram pouco confiáveis.
Em resumo, os pesquisadores concordam que o GPT-4 e outros sistemas similares possuem novas habilidades significativas, mas ainda é cedo para entender totalmente seu funcionamento e seus possíveis efeitos negativos. É importante lembrar que, embora esses sistemas demonstrem habilidades notáveis, eles ainda estão longe de possuir a inteligência
Uma coisa que é indiscutível é que o funcionamento dos poderosos modelos de linguagem de AI, como o GPT-4, não se assemelha à biologia do cérebro ou aos processos mentais humanos. Estes algoritmos exigem uma enorme quantidade de dados de treinamento, muito mais do que um ser humano precisa para aprender habilidades linguísticas. A “experiência” que confere inteligência ao GPT-4 é fornecida integralmente em vez de ser adquirida por meio da interação com o mundo e do diálogo didático. Além disso, o ChatGPT só pode manter o fio de uma conversa alimentando-se da história da conversa a cada vez, uma vez que não possui uma memória de trabalho. No entanto, apesar dessas diferenças, o GPT-4 representa um grande avanço, e os cientistas que pesquisam inteligência dizem que suas habilidades precisam de uma investigação mais aprofundada.
Em janeiro, uma equipe de cientistas cognitivos, linguistas, neurocientistas e cientistas da computação do MIT, da UCLA e da Universidade do Texas, Austin, publicou um artigo de pesquisa que explora como as habilidades de grandes modelos de linguagem diferem das habilidades humanas. O grupo concluiu que, embora os grandes modelos de linguagem demonstrem habilidades linguísticas impressionantes – incluindo a capacidade de gerar coerentemente um ensaio complexo sobre um determinado tema – isso não é o mesmo que entender a linguagem e como usá-la no mundo. De fato, essa desconexão pode ser a razão pela qual os modelos de linguagem começaram a imitar o tipo de raciocínio do senso comum necessário para empilhar objetos ou resolver charadas. No entanto, ainda há uma série de problemas que os sistemas não conseguem resolver, como a compreensão de relacionamentos sociais, o funcionamento do mundo físico e a forma como as pessoas pensam.
A maneira como esses modelos usam a linguagem, prevendo as palavras mais prováveis de vir após uma determinada sequência, é muito diferente de como os humanos falam ou escrevem para transmitir conceitos ou intenções. A abordagem estatística pode fazer com que os chatbots sigam e reflitam de volta a linguagem das sugestões dos usuários até o ponto do absurdo.
Quando um chatbot diz a alguém para deixar o cônjuge, por exemplo, ele apenas apresenta a resposta que parece mais plausível dada a linha de conversa. O ChatGPT e bots similares usarão a primeira pessoa porque são treinados em escrita humana. No entanto, eles não têm um senso consistente de si mesmos e podem mudar suas crenças ou experiências a qualquer momento. A OpenAI também usa feedback de humanos para guiar um modelo em direção a produzir respostas que as pessoas julgam mais coerentes e corretas, o que pode fazer com que o modelo forneça respostas consideradas mais satisfatórias independentemente de quão precisas são.
*Com informações de The Washington Post, Nature, Wired e USA Today