A União Europeia lançou novas diretrizes de boas práticas para modelos de inteligência artificial de propósito geral, como o ChatGPT. O documento, que acompanha a implementação do AI Act, estabelece diretrizes para garantir que a IA operada no bloco seja segura, confiável e centrada no ser humano.

PRINCÍPIOS GERAIS. O documento de 40 páginas não tem força de lei, mas funciona como um manual prático. Chatbots avançados, geradores de imagem e modelos multimodais estão na mira.
O foco está nos chamados “modelos com risco sistêmico”: sistemas de IA capazes de influenciar amplamente o mercado ou a sociedade, com potenciais efeitos negativos sobre a saúde pública, os direitos fundamentais ou a segurança.
Entre as obrigações para os fornecedores, o código exige:
- Identificação e análise contínua de riscos sistêmicos ao longo do ciclo de vida do modelo;
- Critérios claros para aceitar ou rejeitar níveis de risco, com base em evidência técnica;
- Mitigações robustas de segurança e cibersegurança, inclusive contra ataques de manipulação;
- Transparência, com publicação de versões resumidas de documentos-chave;
- E um sistema de relato de incidentes graves — sem que isso signifique confissão de culpa.
A adoção às normas é voluntária — embora, na prática, possa se tornar o padrão para empresas que desejam operar no mercado europeu com credibilidade.
A Meta se recusou a assinar o novo código de conduta. A decisão foi informada por Joel Kaplan, diretor de assuntos globais, em um post no LinkedIn. “Este código apresenta uma série de incertezas legais para os desenvolvedores de modelos, bem como medidas que vão muito além do escopo da Lei da IA”.
Via Comissão Europeia, Reuters (ambos em inglês)