ANÁLISES

AGRO


SOJA


MILHO


ARROZ


ALGODÃO


TRIGO


FEIJÃO


CANA


CAFÉ


CARNES


FLV


INSUMOS

20/Jun/2023

Inteligência Artificial: lei da UE pode influenciar Brasil

Com a promessa de mitigar os riscos da inteligência artificial (IA) à sociedade, o Parlamento Europeu aprovou, no dia 14 de junho, o "EU AI Act" (Lei de IA da União Europeia, na tradução), marco regulatório da IA e o primeiro do tipo no mundo. A expectativa é que a decisão gere o "efeito Bruxelas" e incentive outros países a adotar regulações próprias, como o Brasil, cujo projeto do tipo voltou ao debate no Congresso neste ano. Em discussão desde 2020, o texto de lei europeu determina um conjunto de regras de funcionamento das ferramentas de automação, aprendizado de máquina e de modelos amplos de linguagem. Isso inclui de algoritmos de redes sociais e serviços de streaming a infraestrutura urbana, como redes elétricas. Também estão contemplados carros autônomos e ferramentas como o ChatGPT. O popular chatbot da OpenAI acelerou o incômodo dos países do bloco em relação à tecnologia.

Em abril passado, a Itália decidiu banir o ChatGPT do país. Segundo a autoridade de proteção de dados do país, o robô coletou dados de usuários sem o consentimento destes, além de expor menores de idade a materiais impróprios, mas um acordo foi firmado três semanas depois para reestabelecer o serviço. Poucos dias depois, a autoridade de dados da Espanha emitiu um comunicado dizendo que estava investigando possíveis descumprimentos do ChatGPT. Para tentar dar conta do rápido avanço da tecnologia, o projeto de regulamentação da IA pode entrar em vigência já em 2024. Até lá, o texto deve seguir o rito do triálogo da União Europeia, passando pela Comissão Europeia e Conselho Europeu e ser aprovado por cada um dos 27 países-membros do bloco. Trata-se, portanto, de rascunho inicial, mas a peça aprovada no dia 14 de junho aponta nortes sobre o futuro da IA no continente.

O principal ponto do EU AI Act está em separar diferentes modelos de inteligência artificial no que os eurodeputados chamam de "abordagem baseada em risco". Nesse modelo, cada sistema de IA é colocado sob uma das categorias previstas pelas autoridades: baixo risco à sociedade (como games), risco limitado (como chatbots), alto risco (como veículos autônomos) e inaceitável (como sistemas biométricos de vigilância). A partir dessa classificação, as companhias têm uma série de obrigações de privacidade e transparência para cumprir, seguindo a categoria em que seus serviços e produtos foram colocados. Em maio, os eurodeputados incluíram de última hora um adendo dedicado às IAs de propósito geral, como o próprio ChatGPT. Pelo projeto, essas ferramentas vão ter de apresentar um texto avisando que o conteúdo é gerado por uma máquina (evitando disseminação de desinformação, esperam os políticos europeus) e detalhar em relatórios os materiais protegidos por direitos autorais que foram utilizados para treinar esses sistemas.

O projeto reúne consensos de diversos setores. Essa não é apenas mais uma tecnologia, e não é apenas mais uma transformação. A IA é diferente, porque afeta tudo. O projeto é uma defesa dos valores da União Europeia. O uso da tecnologia de reconhecimento facial para vigilância da China, por exemplo, não tem lugar em uma democracia liberal. Apesar do avanço, o EU AI Act aprovado pelo Parlamento permite que ferramentas de IA possam ser utilizadas nas fronteiras dos países. Esse tipo de tecnologia afeta diretamente migrantes e outras pessoas em deslocamento, o que é visto como um retrocesso por organizações de direitos humanos. Segundo a European Digital Rights (EDRi), a União Europeia está criando uma regulação de IA de duas categorias, com os migrantes recebendo menos proteções que o resto da sociedade.

O Parlamento Europeu perdeu uma oportunidade crucial de ampliar a estrutura de proteções para os danos causados pela IA. Aprovada a legislação no final deste ano, os eurodeputados esperam que aconteça o que chamam de "efeito Bruxelas": outros países seguindo a decisão da União Europeia. Foi o que aconteceu com a GDPR, legislação de proteção de dados aprovada em 2016 na União Europeia e que, no Brasil, inspiraria a Lei Geral de Proteção de Dados (LGPD), de 2018. O mesmo parece ocorrer em relação à IA. A Câmara dos Deputados iniciou em 2020 uma discussão sobre regulamentação dessa tecnologia, com aprovação em setembro do ano seguinte, desde então, empacou no Congresso. No entanto, a chegada do ChatGPT e a discussão do tema na Europa parecem ter apressado as autoridades brasileiras.

O Senado Federal aprecia o tema pelo PL 2.338/2023, que determina um conjunto de medidas e multas de até R$ 50 milhões por infração (ou 2% do faturamento da companhia). Segundo a Digital Action, algumas exigências da Lei de IA da União Europeia podem ser transpostas para o Brasil. Pode ser que o “efeito Bruxelas’ traga alguns desses dispositivos, mas já existe uma convergência entre os projetos em tramitação no Brasil e a lei europeia. É inevitável que essas questões viajem, pois há entendimentos similares entre as duas regiões quanto a direitos digitais. Na proposta do Senado, a versão brasileira também cria categorias de risco, com regras de transparência para os sistemas considerados danosos - como classificação de crédito, identificação de pessoas, veículos autônomos, gestão de infraestruturas críticas (trânsito e redes de abastecimento de água e elétrica), entre outros exemplos dados no PL. Fonte: Broadcast Agro. Adaptado por Cogo Inteligência em Agronegócio.