Search
Close this search box.

Risco à humanidade, apelo à regulação e desorientação no mercado de ações: o mundo das IAs

Cientistas e CEOs experimentam rara concordância em urgirem por rápidos mecanismos de regulação das inteligências artificiais. “Mitigar o risco de extinção oferecido pela inteligência artificial deve ser uma prioridade global”, diz documento assinado por autoridades da ciência, da computação e por empresários

Redação Culturize-se

Existe um misto de excitação e apreensão com esse acelerado curso da inteligência artificial no mundo. Não parece, mas faz apenas seis meses que a OpenAI disponibilizou uma versão beta do ChatGPT, que logo seria comprado pela Microsoft em negócio de U$ 10 bilhões, na internet. Veja o quanto já se evoluiu desde então. Uma infinidade de startups lançam dezenas de IAs por dia – de edição de imagens e vídeos a chats que se utilizam do código da OpenAI, passando por outros tantos produtos mais sofisticados.

Foto: Divulgação

Esta semana, os líderes da OpenAI divulgaram uma carta aberta em seu site pedindo a regulamentação da inteligência artificial antes que seja “tarde demais”. Eles sugerem um modelo semelhante ao utilizado para supervisionar o uso da energia atômica pelos países. Os executivos Sam Altman, Greg Brockman e Ilya Sutskever alertam que as IAs generativas podem se tornar superinteligências em todos os campos nos próximos 10 anos.

Na carta intitulada “Governança da Superinteligência”, eles afirmam que é necessário mitigar os riscos da tecnologia de IA atualmente, mas que a superinteligência exigirá tratamento e coordenação especiais. Os líderes da OpenAI comparam a inteligência artificial a outras tecnologias disruptivas, como energia nuclear e biotecnologia, que possuem tanto potencial positivo quanto destrutivo e, portanto, devem ser alvo de uma regulamentação internacional coordenada pelos países.

A carta destaca a importância de gerenciar o risco existencial e propõe a criação de uma autoridade internacional inspirada na Agência Internacional de Energia Atômica (IAEA) para inspecionar sistemas de IA, exigir auditorias, testar o alinhamento a padrões e estabelecer restrições nos graus de implantação e níveis de segurança. As empresas poderiam concordar voluntariamente em implementar elementos que essa agência poderia exigir, enquanto os países poderiam adotá-los posteriormente.

Os executivos ressaltam que a agência internacional deve focar na redução do risco existencial e não em questões que devem ser decididas pelos países individualmente, como determinar o que uma IA deve ser autorizada a dizer. O documento não detalha as possíveis formas de disrupção causadas pela tecnologia, mas menciona preocupações, como sobrecarga de desinformação, automação e desemprego, desenvolvimento de mentes não humanas e perda de controle da civilização.

A capacidade técnica para garantir a segurança de uma superinteligência é destacada como uma questão em aberto e ainda em estudo. A OpenAI enfatiza que o nível de regulamentação da IA não deve impedir o desenvolvimento de modelos abaixo de um limite de capacidade significativo por parte de empresas e projetos de código aberto. No entanto, os sistemas mais poderosos e as decisões sobre sua implantação devem estar sujeitos a uma forte supervisão pública.

Regular é preciso

Enquanto o Brasil se vê preso a um debate – francamente ultrapassado – sobre regulação da mídia (já há dispositivos legais em abundância na legislação brasileira para exercer uma regulação eficiente), o mundo se prepara para debater os parâmetros do desenvolvimento e uso da inteligência artificial.

Líderes da Alphabet, a empresa controladora do Google, e da União Europeia (UE), se reuniram em Berlim, Alemanha, na semana passada, para discutir a criação de um pacto voluntário com empresas de Inteligência Artificial (IA), tanto dentro como fora do continente. Thierry Breton, líder da comissão de mercado interno da UE, informou que teve conversas com Sundar Pichai, CEO da Alphabet, para discutir maneiras de estabelecer regras antes da aprovação de uma lei de regulamentação.

Craig Martell, chefe digital e oficial de IA do Departamento de Defesa dos EUA, expressou preocupação com o potencial de sistemas generativos de inteligência artificial, como o ChatGPT, em enganar os cidadãos e ameaçar a segurança nacional. Ele ressalta a importância de incluir as proteções corretas nos sistemas de IA e a capacidade de validar as informações, para evitar uma excessiva confiança na IA sem salvaguardas adequadas.

União Europeia e Estados Unidos devem discutir a IA em breve. Margrethe Vestager, vice-presidente da comissão de mercado interno da UE, afirmou que a reunião com o presidente do Google foi extremamente positiva e ressaltou a necessidade de acordos voluntários para estabelecer regras universais de IA enquanto se aguarda a aprovação da Lei de IA (AIAct). O assunto ainda será debatido no Conselho de Tecnologia e Comércio para alinhar as leis entre os EUA e a Europa.

A proposta de lei europeia visa regulamentar entidades de IA em diversos setores, incluindo ferramentas como o ChatGPT, bem como setores de alto risco, como infraestrutura, segurança de produtos, pontuações de crédito e análise de documentos de viagem. Se aprovada, a lei trará regulamentações mais rigorosas e penalidades mais severas para as inteligências artificiais nessas áreas. A Comissão exige que empresas que utilizam algoritmos generativos, como o ChatGPT da OpenAI, divulguem qualquer material protegido por direitos autorais utilizado no desenvolvimento de seus sistemas. Além disso, as empresas de IA precisarão monitorar a qualidade dos dados usados para treinar os modelos de linguagem, manter registros das atividades e garantir a rastreabilidade dos resultados.

Craig Martell: preocupação é real |Foto: Reprodução/NYTimes

Febre das IAs impulsionam papeis das big techs

Gestores de fundos e especialistas em investimentos estão repensando suas estratégias para os papeis de empresas de tecnologia em meio à febre das Inteligências Artificiais, indica um relatório da Bloomberg. Investidores de ETFs (um instrumento de investimento negociado em bolsa que busca replicar o desempenho de um índice de referência específico) avaliam que erraram a mão ao sacarem cerca de U$ 3 bilhões nos últimos 5 meses. Para quem não se lembra, o cenário era de terra arrasada até há bem pouco tempo atrás com gigantes como Google, Tesla, Meta, Disney, Microsoft, Google e Amazon fazendo demissões em série.

Com as ações das gigantes da tecnologia subindo em média 44% neste ano – um ganho de cinco vezes em relação ao índice S&P500, os traders estão desorientados sobre como atuar nesse rali.

Temor em diferentes áreas

Como detalhado na newsletter desta quinta (1º), uma carta aberta divulgada pelo Centro de Segurança para Inteligência Artificial e com mais de 350 signatários, entre cientistas e CEOs, externa a crescente preocupação com os riscos representados pela inteligência artificial. “Mitigar o risco de extinção através da inteligência artificial (IA) deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear.”

Recentemente, o músico e ator britânico, Sting, expressou preocupações em relação ao futuro da arte com a popularização da inteligência artificial. Ele criticou o uso excessivo dessas ferramentas e prevê uma batalha para os artistas defenderem suas obras na indústria, destacando a importância de preservar o capital humano contra a IA. Para ele, autenticidade e originalidade também estão em risco de extinção.

No âmbito do jornalismo, a preocupação também é crescente. Bob Woodward, conhecido pelo caso Watergate, fez duras críticas em relação às ferramentas de inteligência artificial, alertando para o impacto perverso que pode ter nas já esgarçadas redações. Já seu colega de reportagem célebre, Carl Bernstein aponta que a rápida evolução dessas ferramentas aumenta o potencial de circulação de informações falsas.

Deixe um comentário

Posts Recentes