A União Europeia (UE) está liderando a corrida para regulamentar a inteligência artificial (IA). Ao pôr termo a três dias de negociações, o Conselho Europeu e o Parlamento Europeu chegaram hoje cedo a um acordo provisório sobre o que deverá se tornar a primeira regulamentação abrangente de IA do mundo.
Carme Artigas, Secretária de Estado espanhola para a digitalização e IA, classificou o acordo como uma “conquista histórica” num comunicado de imprensa. Artigas disse que as regras estabelecem um “equilíbrio extremamente delicado” entre encorajar a inovação e adopção segura e confiável da IA em toda a UE e proteger os “direitos fundamentais” dos cidadãos.
O projecto de legislação – a Lei da Inteligência Artificial – foi proposto pela primeira vez pela Comissão Europeia em Abril de 2021. O parlamento e os estados membros da UE votarão para aprovar o projecto de legislação no próximo ano, mas as regras só entrarão em vigor em 2025.
Uma abordagem baseada no risco para regular a IA
A Lei da IA foi concebida utilizando uma abordagem baseada no risco, em que quanto maior o risco que um sistema de IA representa, mais rigorosas são as regras. Para conseguir isso, o regulamento classificará as IAs para identificar aquelas que representam “alto risco”.
As IAs consideradas não ameaçadoras e de baixo risco estarão sujeitas a “obrigações de transparência muito leves”. Por exemplo, esses sistemas de IA serão obrigados a divulgar que o seu conteúdo é gerado por IA para permitir que os utilizadores tomem decisões informadas.
Para IAs de alto risco, a legislação acrescentará uma série de obrigações e requisitos, incluindo:
Supervisão Humana: A lei exige uma abordagem centrada no ser humano, enfatizando mecanismos de supervisão humana claros e eficazes de sistemas de IA de alto risco. Isso significa ter humanos informados, monitorando e supervisionando ativamente a operação do sistema de IA. O seu papel inclui garantir que o sistema funciona conforme pretendido, identificando e abordando potenciais danos ou consequências não intencionais e, em última análise, responsabilizando-se pelas suas decisões e ações.
Transparência e explicabilidade: Desmistificar o funcionamento interno dos sistemas de IA de alto risco é crucial para construir confiança e garantir a responsabilização. Os desenvolvedores devem fornecer informações claras e acessíveis sobre como seus sistemas tomam decisões. Isso inclui detalhes sobre os algoritmos subjacentes, dados de treinamento e possíveis tendências que podem influenciar os resultados do sistema.
Gestão de dados: A Lei de IA enfatiza práticas responsáveis de dados, com o objetivo de prevenir discriminação, preconceito e violações de privacidade. Os desenvolvedores devem garantir que os dados usados para treinar e operar sistemas de IA de alto risco sejam precisos, completos e representativos. Os princípios de minimização de dados são cruciais, recolhendo apenas a informação necessária ao funcionamento do sistema e minimizando o risco de utilização indevida ou violações. Além disso, os indivíduos devem ter direitos claros de acesso, retificação e apagamento dos seus dados utilizados em sistemas de IA, capacitando-os para controlar as suas informações e garantir a sua utilização ética.
Gerenciamento de riscos: A identificação e mitigação proativas de riscos se tornarão um requisito fundamental para IAs de alto risco. Os desenvolvedores devem implementar estruturas robustas de gestão de riscos que avaliem sistematicamente possíveis danos, vulnerabilidades e consequências não intencionais de seus sistemas.
source – cryptoslate.com