O International AI Safety Report, lançado na última quarta-feira (29.jan.2025), resume as evidências científicas sobre a segurança da IA, quais os maiores riscos da tecnologia e como eles podem ser mitigados.
AVANÇOS. O relatório aponta que alguns exemplos do que a IA já faz bem, como ajudar programadores, conversar fluentemente em vários idiomas e criar imagens realistas. Mas aponta que ainda há dificuldades em tarefas robóticas úteis (como trabalho doméstico), evitar erros factuais de forma consistente e conduzir projetos de longo prazo sem supervisão humana.
REGULAÇÃO. Como qualquer ajuste ou nova ferramenta pode alterar drasticamente as capacidades da IA, o relatório considera difícil criar regulações estáveis para a tecnologia. Há também desafios técnicos, como a complexidade de implementar marcas d’água em conteúdos gerados por modelos de IA de código aberto, já que os usuários podem modificar sua aplicação.
O que mais o documento fala sobre regulação
No relatório, outras barreiras para a regulamentação são:
- Falta de métodos confiáveis para quantificar o risco de falhas inesperadas em modelos de IA, segundo os pesquisadores, e todas as abordagens seguras continuam sendo teóricas;
- Falta de transparência algorítmica e institucional por parte das empresas de IA dificulta a definição de responsabilidade legal, comprometendo a governança e a aplicação da lei.
NEM ELES SABEM. Pesquisadores destacam que desenvolvedores e cientistas têm compreensão limitada do funcionamento interno dos modelos de IA, o que dificulta estimar suas reais capacidades. Os profissionais “ainda não podem explicar por que esses modelos geram determinadas respostas, nem qual é a função da maioria de seus componentes internos”, aponta o relatório.
RISCOS GRAVES. Além dos problemas já conhecidos, como a criação de material de exploração sexual e golpes com IA, pesquisadores analisam cenários ainda mais complexos, onde a tecnologia pode ser manipulada para causar danos ainda mais graves, como:
- Manipulação da opinião pública, por meio da criação e disseminação coordenada de conteúdo;
- Ataques cibernéticos, com casos onde hackers apoiados por Estados exploram a IA para atacar;
- Ataques biológicos e químicos, já que a IA está avançando no campo médico-científico e atualmente pode gerar instruções detalhadas sobre como criar patógenos e toxinas.
Medidas contra deepfakes são de “eficácia mista”
O relatório aponta haver dificuldade em estimar os danos às vítimas de deepfakes — seja por golpes ou por uso não consensual de imagem — devido à falta de estatísticas confiáveis, gerando uma subnotificação.
A eficácia das ações de combate é descrita por pesquisadores como “mista”. Técnicas de detecção de conteúdo gerado por IA, como rótulos de aviso e marcas d'água, têm eficácia variável. Algumas ferramentas conseguem identificar anomalias em imagens e sinalizá-las como falsas, mas essas abordagens não são infalíveis.
OUTROS RISCOS. O relatório também destacou outros tipos de risco, embora menos críticos, mas ainda relevantes, como:
- Riscos de mau funcionamento, como alucinações ou viés, que podem causar danos físicos, financeiros e legais, além de perpetuar estereótipos contra determinadas demografias;
- Riscos sistêmicos, incluindo o impacto da IA no mercado de trabalho, o agravamento de danos ambientais devido ao alto consumo de energia, ameaças à privacidade e aos direitos autorais, e a concentração de mercado, com poucas empresas dominando a tecnologia.
No caso da concentração de mercado, uma das “hipóteses pessimistas” dos pesquisadores é que, por conta da alta competição, empresas de IA podem deixar avaliações de segurança de lado a fim de lançar novos produtos mais rápido. Isso já aconteceu antes.
INCERTEZA. A conclusão do relatório destaca a grande incerteza sobre o futuro da IA, o que gera uma ambiguidade em como lidar com os riscos de segurança dessa tecnologia. No final, há um ponto claro destacado pelos pesquisadores: “a IA não 'acontece conosco'; as escolhas feitas pelas pessoas determinam o seu futuro.”
Leia aqui o relatório (PDF, em inglês)