Chance do calendário, apenas alguns dias antes Cúpula para Ação sobre Inteligência Artificial (IA) Organizada em 10 e 11 de fevereiro em Parisas primeiras medidas do regulamento europeu AI ATS estão em aplicação no domingo, 2 de fevereiro. Se o símbolo for forte, esta primeira parte atualmente diz respeito apenas a certos usos proibidos.
A implementação do texto, a mais ambiciosa do mundo nesta fase, será progressiva e ainda é objeto de debates, até disputas. Essas perguntas não deixarão de ser mencionado durante o comício, onde o Elysée aguarda 100 chefes de estado, especialmente americanos e chineses, bem como atores da sociedade civil e líderes de negócios da IA, incluindo Elon Musk, Sam Altman (Openai) ou Sundar Pichai ( Google).
Concretamente, neste domingo serão proibidos certos usos da IA considerados inaceitáveis pela IA Act: entre eles, o software de «Notação sociale», privado ou público, como os usados pela China, e a IA de “Polícia preditiva individual” destinado a «Profiler» Pessoas estimando sua propensão a cometer ofensas. Mas também o “Reconhecimento de emoções” No trabalho ou na escola, para analisar o comportamento de um funcionário ou aluno.
Da mesma forma, são proibidos “A exploração das vulnerabilidades das pessoas, manipulação ou técnicas subliminares”. E, finalmente, a identificação de pessoas por reconhecimento facial real no espaço público, bem como a categorização biométrica das pessoas para deduzir “Sua raça, suas opiniões políticas, religiosas, sua orientação sexual ou sua associação ao sindicato”Assim, Lista o local da Comissão Europeia. No entanto, certas exceções são fornecidas para a polícia.
Obrigações de transparência
No entanto, os principais componentes do texto não serão colocados em prática até mais tarde: o 1é Agosto para modelos de IA “Para uso geral”como grandes modelos de geração de texto ou imagem que servem de base para usos de negócios ou assistentes como ChatGPT, Gemini (Google) ou CAT (Mistral). Estes serão vinculados por obrigações de transparência em sua documentação técnica e seus dados de treinamento. E o maior desses modelos também estará sujeito a auditorias de segurança em riscos, especialmente cibernéticos.
Você tem 49,2% deste artigo para ler. O restante é reservado para assinantes.