Notícias

Artigo

Breve ensaio sobre Políticas no tema da Inteligência Artificial: uma comparação inicial entre Brasil, USA e União Europeia

30/07/2024

Susana Kakuta

Este artigo tem por objetivo trazer uma visão geral acerca das principais politicas sobre o tema da IA – Inteligência Artificial nos contextos da União Europeia, Estados Unidos e do Brasil.

É inegável a disruptura tecnológica advinda da IA. Esta disruptura (termo usado no campo da inovação para expressar algo absolutamente novo, que traz consigo todo um novo contexto de uso e mercado) tem como grandes viesses a velocidade de chegar ao mercado e o seu impacto sobre parcela importante (senão toda)  da sociedade global desde seu inicio. Verdade é que no nosso cotidiano já experimentamos a IA: seja numa interpretação de uma imagem e seu laudo; seja pelo uso do celular referendando e ofertando produtos além de nossa vontade; os exemplos são fáceis de citar.

Verdade é que quando se une velocidade e impacto altos de uma tecnologia, via de regra governos tem dificuldade de regular, legitimar ou mesmo estruturar politicas: via de regra ficam a reboque. Este tema é precioso e deve ser analisado sob a égide de seu papel no contexto do desenvolvimento, preferencialmente sem levante de bandeiras radicais.

O número de pessoas que utilizam ferramentas de IA em todo o mundo ultrapassou os 250 milhões em 2023, mais do dobro do número de 2020. Espera-se que este crescimento no número de utilizadores de ferramentas de IA continue, ultrapassando os 700 milhões até ao final da década. De acordo com a pesquisa concluída pela Exploding Topics, 77% das empresas estão usando ou explorando o uso de IA em seus negócios, e 83% das empresas afirmam que a IA é uma prioridade máxima em seus planos de negócios.

Sou fundadora de uma empresa de tecnologias para saúde, fazemos biosensores tipo point of care tests. Seremos e já somos muito impactados! Até 2050, as tecnologias alimentadas por IA poderão revolucionar o atendimento ao paciente, permitindo diagnósticos mais rápidos e precisos, planos de tratamento personalizados e a descoberta de terapias inovadoras. A IA também pode desempenhar um papel significativo na previsão e prevenção de doenças, levando a uma melhor gestão da saúde da população.

Verdade é que a IA irá mudar o rumo do jogo global. Haverá países que avançam fortemente em seu uso e aqueles que ficarão a mercê de discursos preservacionistas de mercado. Na opinião desta que lhes escreve, prefiro estar no primeiro grupo – disparado –  e surfar esta nova onda de oportunidade.

No Brasil, diversas iniciativas e políticas têm sido desenvolvidas para promover o uso responsável e ético da inteligência artificial (IA). Aqui estão algumas das principais iniciativas:

  • Plano Nacional de IoT: Embora focado principalmente na Internet das Coisas, o plano inclui diretrizes e estratégias que envolvem a aplicação de IA em diversas áreas, buscando estimular a inovação e a integração de tecnologias.
  • Estratégia Brasileira de Inteligência Artificial (EBIA): Lançada em 2021, a EBIA busca orientar o desenvolvimento e a implementação da IA no Brasil, promovendo a pesquisa, o desenvolvimento tecnológico e a capacitação de mão de obra qualificada, além de fomentar a ética no uso da IA.
  • Comitê de Ética em IA: O governo brasileiro tem incentivado a formação de comitês de ética para discutir e analisar as implicações éticas do uso de IA, promovendo diretrizes que assegurem o respeito aos direitos humanos e à privacidade.
  • Lei Geral de Proteção de Dados (LGPD): Em vigor desde 2020, a LGPD regula o tratamento de dados pessoais no Brasil, afetando diretamente como as empresas e organizações podem coletar, processar e armazenar dados usados em sistemas de IA. É onde vejo o maior grau de implementação.
  • Acordos e Parcerias: O Brasil tem firmado parcerias e acordos internacionais para colaborar em pesquisa e desenvolvimento de tecnologias de IA, incluindo colaborações com países e organizações reconhecidas na área.
  • Iniciativas Setoriais: Vários órgãos e setores, como saúde, segurança pública e educação, têm desenvolvido políticas e projetos específicos que utilizam IA para melhorar serviços públicos, aumentar a eficiência e promover inovação.
  • Fomento à Pesquisa e Inovação: O Brasil, por meio de suas agências de fomento como o Ministério da Ciência, Tecnologia e Inovações (MCTI) e a Financiadora de Estudos e Projetos (FINEP), busca apoiar a pesquisa e o desenvolvimento de tecnologias em IA.
  • Instituto Nacional de Pesquisas Espaciais (INPE): Em áreas como sensoriamento remoto e monitoramento ambiental, o INPE utiliza técnicas de IA para análise de dados, contribuindo para políticas ambientais e de sustentabilidade.

Essas iniciativas refletem o crescente reconhecimento da importância da inteligência artificial no desenvolvimento tecnológico e econômico do Brasil, assim como a necessidade de garantir que seu uso seja ético e respeite os direitos dos cidadãos. A política de IA no Brasil está em constante construção, evolução e busca adaptar-se às mudanças e desafios impostos pela evolução tecnológica.

Na União Europeia (UE), várias políticas e regulamentos chave têm sido desenvolvidos em relação à inteligência artificial (IA) para promover a inovação, enquanto asseguram padrões éticos, segurança e direitos fundamentais. Aqui estão algumas das principais políticas e estruturas:

  • Estratégia Europeia de IA: A Comissão Europeia adotou uma abordagem coordenada para promover o desenvolvimento e a adoção de IA. A estratégia visa aumentar os investimentos, fomentar talentos e promover a colaboração entre os Estados-Membros.
  • Lei de IA (Proposta): Uma das iniciativas mais significativas é a proposta de Lei de IA, que visa criar um quadro regulatório para a IA. Ela classifica os sistemas de IA com base em seus níveis de risco—alto risco, risco limitado e risco mínimo—e estabelece requisitos sobre transparência, responsabilidade e segurança.
  • Estratégia Digital: A Estratégia Digital da UE delineia a visão para a transformação digital da Europa, abrangendo a IA como um componente chave. Esta estratégia inclui esforços para avançar nas competências digitais, melhorar a conectividade e apoiar uma economia digital sustentável.
  • Diretrizes Éticas para uma IA Confiável: A Comissão Europeia desenvolveu diretrizes éticas que enfatizam a necessidade de que os sistemas de IA sejam legais, éticos e robustos. As diretrizes se concentram em princípios como transparência, responsabilidade, não discriminação e privacidade.
  • Regulamento Geral sobre a Proteção de Dados (GDPR): Embora não seja focado exclusivamente na IA, o GDPR é crucial na regulamentação da proteção de dados e privacidade, o que impacta significativamente o desenvolvimento de IA, especialmente em áreas como coleta, processamento de dados e direitos dos usuários.
  • Plano Coordenado sobre IA: A UE estabeleceu um plano coordenado com os Estados-Membros para acelerar o desenvolvimento e a implantação de IA em diferentes setores, incluindo saúde, transporte e energia.
  • Parcerias Público-Privadas: A UE promove parcerias entre os setores público e privado para fomentar a inovação, pesquisa e implantação de tecnologias de IA, como através da Aliança Europeia de IA.
  • Foco em Pesquisa e Inovação: A UE financia projetos de pesquisa e inovação em IA através de programas como Horizonte Europa, visando aumentar a posição da Europa como líder global em tecnologias de IA.
  • Cooperação Internacional: A UE busca se envolver com parceiros internacionais para estabelecer padrões e regulamentações globais para a IA, enfatizando considerações éticas e direitos humanos.

Essas políticas refletem o compromisso da UE com uma abordagem equilibrada para a IA, promovendo a inovação enquanto garantem que considerações éticas, segurança e direitos fundamentais sejam priorizados. O cenário regulatório na UE continua a evoluir à medida que a tecnologia e as necessidades sociais se desenvolvem.

Nos Estados Unidos,  no campo da inteligência artificial, várias políticas e iniciativas importantes surgiram para orientar o desenvolvimento, garantir a segurança e promover práticas éticas. Aqui estão algumas das principais políticas e estruturas:

  • Lei da Iniciativa Nacional de IA de 2020: Esta lei visa promover e coordenar a pesquisa e o desenvolvimento de IA em agências governamentais e no setor privado. Ela estabelece um Escritório da Iniciativa Nacional de IA para supervisionar e implementar a estratégia federal de IA.
  • Ordem Executiva sobre a Manutenção da Liderança Americana em IA (2020): Assinada pelo presidente Trump, esta ordem executiva enfatiza a importância de garantir a liderança dos EUA em IA e pede a promoção da inovação, regulamentação adequada e colaboração com aliados estrangeiros.
  • Plano Estratégico de Pesquisa e Desenvolvimento em IA: Este plano delineia prioridades para investimentos federais em pesquisa e desenvolvimento de IA e enfatiza a necessidade de IA em vários setores, incluindo saúde, transporte e segurança nacional.
  • Lei de Responsabilidade Algorítmica (proposta): Esta legislação proposta visa exigir que as empresas avaliem o impacto de seus sistemas de tomada de decisão automatizados e garantam que não perpetuem preconceitos ou discriminação.
  • Ações da Comissão Federal de Comércio (FTC): A FTC tomou medidas para abordar questões relacionadas à IA, incluindo potenciais enganos e práticas desleais. Ela forneceu orientações sobre o uso da IA em contextos de proteção ao consumidor.
  • Diretrizes Éticas de IA: Várias organizações, incluindo o Instituto Nacional de Padrões e Tecnologia (NIST), desenvolveram estruturas e diretrizes para uma IA ética, com foco em justiça, responsabilidade e transparência.
  • Segurança Nacional e IA: Existem discussões e iniciativas em andamento para garantir que as tecnologias de IA sejam usadas de forma responsável em aplicações de defesa e segurança nacional, com ênfase em considerações éticas e colaboração internacional.
  • Considerações Regulatórias: Agências como o Departamento de Comércio e o Escritório da Casa Branca de Política Científica e Tecnológica (OSTP) estão trabalhando para garantir que as regulamentações acompanhem os avanços tecnológicos, promovendo a inovação.

Essas políticas refletem o reconhecimento do governo dos EUA sobre o potencial transformador da IA, bem como a necessidade de abordar desafios relacionados à ética, segurança e impacto econômico. O cenário está em constante evolução à medida que a tecnologia avança e as preocupações da sociedade aumentam.

Assim, as tecnologias de alto risco nas políticas de inteligência artificial (IA) da União Europeia (UE) e dos Estados Unidos (EUA) referem-se a sistemas e aplicações de IA que podem apresentar riscos significativos à segurança, direitos fundamentais e bem-estar dos cidadãos. Veja abaixo o que significa essa classificação em cada contexto:

Na proposta da Lei de IA, a UE categoriza os sistemas de IA em diferentes níveis de risco. As tecnologias de alto risco incluem aquelas que podem impactar negativamente a saúde, segurança e direitos fundamentais das pessoas, principalmente em áreas como: a) Saúde: Tecnologias que analisam dados médicos, auxiliam diagnósticos ou são usadas em dispositivos médicos; b) Transporte: Sistemas de IA utilizados em veículos autônomos ou na gestão de tráfego; c) Emprego e Trabalho: IA utilizada para recrutamento, avaliação de desempenho e monitoramento de trabalhadores; d) Justiça Criminal: Sistemas que ajudam na previsão de crimes, análise de risco de reincidência ou decisão sobre penas; Infraestrutura Crítica: Tecnologias que operam em serviços essenciais, como energia, água e transporte público.

Nos EUA, o conceito de alto risco em IA não está codificado em uma única estrutura regulatória como na UE, mas é reconhecido em várias discussões sobre regulamentação e ética da IA. Tecnologias de alto risco incluem: a) Reconhecimento Facial: Aplicações usadas por agências de segurança pública que podem impactar a privacidade e causar discriminação; b) Decisões Judiciais: Sistemas que influenciam decisões sobre fiança, sentenças ou outras ações judiciais, que podem afetar os direitos individuais; c) Veículos Autônomos: Tecnologias que operam sem intervenção humana, que apresentam riscos à segurança pública; d) Sistemas de Monitoramento em Tempo Real: Tecnologias que podem invadir a privacidade das pessoas se usadas em contextos públicos.

Embora os EUA incentivem a inovação e uma abordagem menos regulatória, há um crescente reconhecimento da necessidade de regulamentação sobre tecnologias de alto risco, especialmente em áreas que impactam a vida cotidiana e os direitos civis. Em resumo, tecnologias de alto risco referem-se a aplicações de IA que têm o potencial de causar danos significativos à saúde, segurança e direitos dos indivíduos. Tanto a UE quanto os EUA estão tomando medidas para identificar, regulamentar e monitorar essas tecnologias, embora suas abordagens e o grau de regulamentação possam variar.

Um breve resumo comparativo

1. Estratégia e Framework Regulatórios

União Européia: A UE é reconhecida por sua abordagem proativa e abrangente em relação à regulamentação da IA. A proposta da Lei de IA classifica os sistemas de IA com base em níveis de risco – desde baixo até alto risco – e impõe requisitos rigorosos para tecnologias de alto risco. Isso inclui a necessidade de avaliações de conformidade, transparência e supervisão humana. O foco da UE em regulamentação busca garantir a proteção dos direitos fundamentais e a segurança dos cidadãos.

Estados Unidos: Em contrapartida, os EUA têm adotado uma abordagem mais descentralizada e orientada à inovação. Não existe um quadro regulatório único para a IA, mas há iniciativas que incentivam diretrizes éticas, como as publicadas pelo NIST. O país prioriza a promoção da pesquisa e do desenvolvimento, com ênfase em permitir um ambiente propício à inovação tecnológica, embora discussões sobre regulamentação estejam crescendo, especialmente em relação a tecnologias de alto risco.

Brasil: O Brasil está em um estágio intermediário, com a Estratégia Brasileira de Inteligência Artificial (EBIA), que busca orientar o desenvolvimento da IA através de diretrizes que promovem a pesquisa e capacitação. Além disso, a Lei Geral de Proteção de Dados (LGPD) impacta significativamente a maneira como a IA lida com dados pessoais. Embora o Brasil ainda não tenha um marco regulatório tão abrangente quanto o da UE, está se movendo na direção de estabelecer normas éticas e de proteção para o uso da IA.

2. Ética e Responsabilidade

União Européia: A ética é um dos pilares fundamentais das políticas de IA na UE. Diretrizes éticas enfatizam a necessidade de sistemas de IA serem justos, transparentes, e responsáveis, refletindo um forte compromisso com os direitos humanos e a proteção dos cidadãos.

Estados Unidos: Nos EUA, a ética na IA é uma área de crescente preocupação, mas a abordagem tende a ser mais flexível. Organizações e empresas estão desenvolvendo suas próprias diretrizes éticas, muitas vezes influenciadas pela liberdade de inovação e mercado. A diversidade de práticas torna difícil estabelecer um padrão único.

Brasil: O Brasil também está se empenhando na discussão sobre a ética na IA, com comitês de ética propostos para avaliar as implicações do uso da tecnologia. As diretrizes, embora ainda em desenvolvimento, buscam garantir o respeito aos direitos humanos e à privacidade, alinhando-se com a experiência da UE.

3. Investimento em Pesquisa e Inovação

União Européia: A UE investe consideravelmente em pesquisa e desenvolvimento por meio de programas como o Horizonte Europa, com foco em promover a inovação em IA e garantir que a Europa permaneça competitiva no cenário global.

Estados Unidos: Os EUA são líderes em investimentos para pesquisa e desenvolvimento em IA, com suporte significativo do governo e do setor privado. Iniciativas como a National AI Initiative visam apoiar a colaboração entre empresas, universidades e instituições de pesquisa.

Brasil: O Brasil busca estimular a pesquisa em IA através de agências de fomento, como o MCTI. No entanto, os investimentos ainda estão aquém em comparação com as potências globais, e há um grande potencial de crescimento nessa área.

Em resumo, as políticas de IA do Brasil, dos Estados Unidos e da União Europeia refletem diferentes prioridades e contextos. A UE se destaca por sua abordagem rigorosa e ética, os EUA priorizam a inovação e a flexibilidade regulatória, enquanto o Brasil desenvolve suas diretrizes em um contexto de aprendizado e adaptação. Apesar das diferenças, todos os três reconhecem a importância da IA como motor de desenvolvimento, inovação e transformação social, e estão caminhando em direção a um uso responsável e ético da tecnologia.

Em resumo, as políticas de IA do Brasil, dos Estados Unidos e da União Europeia refletem diferentes prioridades e contextos. A UE se destaca por sua abordagem rigorosa e ética, os EUA priorizam a inovação e a flexibilidade regulatória, enquanto o Brasil desenvolve suas diretrizes em um contexto de aprendizado e adaptação. Apesar das diferenças, todos os três reconhecem a importância da IA como motor de desenvolvimento, inovação e transformação social, e estão caminhando em direção a um uso responsável e ético da tecnologia.

Como comentei no principio, a IA traz disrupção na maneira como operamos a produção de riquezas e o desenvolvimento socioeconômico. Mas quero acrescentar mais uma abordagem, como final desta reflexão: não existe a opção de querer ou não adotar a IA  como tecnologia que ira influenciar todos os setores, todas as pessoas, as próximas décadas…resta avançar com consciência, consistência e responsabilidade…! 

Autores Susana Kakuta