Ícone do site Acre Notícias

A visão do Guardian sobre o poder, os limites e os riscos da IA: pode exigir repensar a tecnologia | Editorial

A visão do Guardian sobre o poder, os limites e os riscos da IA: pode exigir repensar a tecnologia | Editorial

Editorial

Mmais de 300 milhões de pessoas usam OpenAI’s Bate-papoGPT a cada semana, uma prova do apelo da tecnologia. Este mês, a empresa revelou um “modo profissional” para seu novo sistema de IA “o1”, que oferece raciocínio em nível humano – por 10 vezes a atual taxa de assinatura mensal de US$ 20. Um de seus comportamentos avançados parece ser autopreservação. Nos testes, quando o sistema foi levado a acreditar que seria encerrado, tentou desativar um mecanismo de supervisão. Quando “o1” encontrou memorandos sobre sua substituição, ele tentou copiar a si mesmo e sobrescrever seu código principal. Repugnante? Absolutamente.

Mais realisticamente, a medida reflecte provavelmente a programação do sistema para optimizar os resultados, em vez de demonstrar intenções ou consciência. A ideia de criar máquinas inteligentes provoca sentimentos de desconforto. Na computação este é o problema do gorila: 7 milhões de anos atrás, um primata agora extinto evoluiu, com um ramo levando aos gorilas e outro aos humanos. A preocupação é que, tal como os gorilas perderam o controlo sobre o seu destino para os humanos, os humanos possam perder o controlo para a IA superinteligente. Não é óbvio que possamos controlar máquinas mais inteligentes do que nós.

Por que essas coisas aconteceram? Gigantes da IA ​​como OpenAI e Google supostamente enfrentam limites computacionais: modelos em escala não garantem mais uma IA mais inteligente. Com dados limitados, maior não é melhor. A solução? Feedback humano sobre o raciocínio. Um 2023 papel do ex-cientista-chefe da OpenAI descobriu que esse método resolveu 78% dos problemas matemáticos difíceis, em comparação com 70% quando se usa uma técnica em que os humanos não ajudam.

A OpenAI está usando essas técnicas em seu novo sistema “o1”, que a empresa acredita que resolverá os atuais limites de crescimento. O cientista da computação Subbarao Kambhampati disse ao atlântico que esse desenvolvimento era semelhante a um sistema de IA jogando um milhão de partidas de xadrez para aprender estratégias ideais. No entanto, uma equipe de Yale que testou o sistema “o1” publicou um artigo que sugeria que tornar um modelo de linguagem melhor no raciocínio ajuda – mas não resolve completamente. eliminar os efeitos de seu design original simplesmente como um preditor inteligente de palavras.

Se os alienígenas pousassem e presenteassem a humanidade com uma caixa preta de IA superinteligente, então seria sensato ter cautela ao abri-la. Mas os humanos projetam os sistemas de IA atuais. Se eles acabarem parecendo manipuladores, isso seria o resultado de uma falha de design. Depender de uma máquina cujas operações não podemos controlar exige que ela seja programada para que realmente se alinhe com os desejos e vontades humanas. Mas quão realista é isso?

Em muitas culturas, há histórias de humanos pedindo poderes divinos aos deuses. Estas histórias de arrogância muitas vezes terminam em arrependimento, pois os desejos são concedidos de forma demasiado literal, levando a consequências imprevistas. Freqüentemente, um terceiro e último desejo é usado para desfazer os dois primeiros. Tal situação foi enfrentada por Rei Midaso lendário rei grego que desejava que tudo que tocasse se transformasse em ouro, apenas para se desesperar quando sua comida, bebida e entes queridos tiveram o mesmo destino. O problema da IA ​​é que queremos máquinas que se esforcem para atingir os objetivos humanos, mas saibam que o software não sabe exatamente quais são esses objetivos. Claramente, a ambição desenfreada leva ao arrependimento. Controlar a imprevisível IA superinteligente exige repensar o que a IA deveria ser.

Este artigo principal não foi apresentado nos dias em que os membros do NUJ no Reino Unido estavam em greve.



Leia Mais: The Guardian



Sair da versão mobile