Brasil

Regulação sobre IA no país não toca no essencial



Em tramitação no Senado desde maio do ano passado, o Projeto de Lei 2338/2023, ou o Marco Legal da Inteligência Artificial (IA) no Brasil, pode ser votado até meados de junho. O debate na Casa Alta do Congresso Nacional está focado em como a tecnologia pode influenciar as eleições por meio de disseminação de mentiras. Mas questões como riscos à saúde das pessoas, empregos militares e no controle social e a própria discussão da inteligência artificial representar ou não um risco para a humanidade até agora não estão gerando discussão pública e podem ficar de fora do debate político, segundo analistas ouvidos pela reportagem.

Durante seu discurso de abertura dos trabalhos legislativos desse ano, em fevereiro, o presidente do Senado, Rodrigo Pacheco (PSD-MG) disse ser imperativo regular a Inteligência Artificial e as redes sociais, “principalmente quanto à imposição de responsabilidades na veiculação de informações, a fim de mitigar externalidades negativas e potencializar benefícios à sociedade de tecnologias com potencial disruptivo exponencial”.

O advogado especialista em Direito Digital André Marsiglia avalia que o debate a respeito da Inteligência Artificial no Brasil ainda é raso e que não chega aos dilemas éticos sobre seu desenvolvimento e utilização, tal como se faz, por exemplo, em relação ao desenvolvimento da engenharia genética e de pesquisas com células tronco. Esse tipo de discussão vem ocorrendo há anos no exterior, mas passa longe dos centros de poder político brasileiros, salvo raras exceções.

Marsiglia ainda comenta que “como a compreensão sobre o tema é rasa, a opção tem sido proibir a tecnologia sem discuti-la”, como ocorreu no caso da resolução do TSE sobre os deep fakes (manipulações de vídeos feitas com Inteligência Artificial capazes de alterar o que uma pessoa está falando ou fazendo).

Em fevereiro deste ano, adiantando-se à regulação do Congresso Nacional sobre o tema, o Tribunal Superior Eleitoral (TSE) lançou uma norma inédita que proibiu o uso de deep fakes e tornou obrigatório que propagandas eleitorais que utilizem recursos de Inteligência Artificial deixem claro que a tecnologia está sendo utilizada.

Segundo o senador astronauta Marcos Pontes (PL-SP), que acompanha o desenvolvimento do Marco Legal da Inteligência Artificial no Senado, o TSE cumpriu seu papel ao tentar proteger o processo eleitoral, ainda que os pontos abordados pelo Tribunal não sejam o foco principal do debate sobre a inteligência artificial. “Essa discussão é somente sobre um dos efeitos que a Inteligência Artificial pode ter”, afirmou o senador. Ele disse acreditar que a “Inteligência Artificial é uma tecnologia de característica mundial que vai propiciar a maior revolução tecnológica que a espécie humana já vivenciou”.

No Senado, a previsão é que, após análise final da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), o texto vá para a apreciação do plenário, com votação prevista para o dia 18 de junho. No que depender de Pontes, que ocupa a vice-presidência da CTIA, a proposta da Comissão para o Projeto de Lei contemplará uma regulação mais aprofundada para o desenvolvimento, a gestão e o uso de sistemas de Inteligência Artificial no Brasil.

Senado criou comissão para debater Inteligência Artificial de forma mais abrangente

No Congresso, partiu do Senado Federal a iniciativa de criar uma lei abrangente para a regulação da Inteligência Artificial no Brasil. O Projeto de Lei 2338/2023 que, quando aprovado será o Marco Legal da Inteligência Artificial no Brasil é uma proposta primeiramente apresentada pelo presidente da Casa, senador Rodrigo Pacheco (PSD-MG), sendo o resultado do trabalho de uma comissão de juristas encarregada especialmente de discutir o tema.

Após a apresentação dessa proposta em maio do ano passado, o Senado avaliou que era preciso aprofundar a discussão sobre o tema e, para tanto, criou a Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA). Presidida pelo senador Carlos Viana (Podemos-MG), a Comissão realizou uma série de audiências pública e, até dia 22 de maio, última quarta-feira, recebeu contribuições para o texto final do PL.

O relator da CTIA, o senador Eduardo Gomes (PL-TO), assim como o vice-presidente, o senador Marcos Pontes (PL-SP), elaboraram substitutivos para a proposta. Além disso, a Autoridade Nacional de Proteção de Dados (ANPD) elaborou e encaminhou para a Comissão um documento com diversas sugestões para o aprimoramento do PL.

A previsão é de que, no dia 5 de junho, o relatório final seja apresentado à Comissão, que votará a proposta no dia 12, a fim de que o Projeto de Lei seja votado no Plenário do Senado no dia 18 de junho. Após essa tramitação, o PL ainda precisa passar pela Câmara dos Deputados e, caso seja aprovado sem alterações, poderá seguir para a sanção do Presidente Luiz Inácio Lula da Silva.

Investir e desenvolver Inteligência Artificial é menos arriscado do que não desenvolvê-la, diz senador

Em entrevista ao podcast Assunto Capital da Gazeta do Povo, Pontes afirmou que as sugestões que apresentou são, na verdade, da própria comissão. Dentre as principais mudanças propostas estão a previsão para o fomento de ações visando o desenvolvimento da Inteligência Artificial no país, assim como uma classificação de risco mais objetiva para os programas e aplicativos que se utilizam dessa tecnologia.

Segundo o senador paulista, o maior risco para o Brasil é se tornar dependente de soluções de Inteligência Artificial de outros países, por não desenvolver as próprias tecnologias, já que a Inteligência Artificial será desenvolvida independente da vontade ou das regras um único país ou bloco. “Tendo em vista ser inevitável o uso de Inteligência Artificial atual ou no futuro, é mais arriscado o país não usar Inteligência Artificial do que usar”, afirmou Pontes. Em relação à amplitude dos debates e discussões para a proposição do PL, o senador disse que percebeu um bom engajamento dos setores diretamente envolvidos nessa área.

Empresas ligadas aos aos Estados Unidos e à China devem liderar a criação da nova tecnologia. O Brasil e outros países em desenvolvimento devem exercer papel secundário nesse processo de desenvolvimento, mas não estarão imunes aos seus efeitos e formas de utilização.

O analista Marsiglia avalia que o debate sobre a Inteligência Artificial não foi feito de forma adequada com a sociedade e nem no Congresso Nacional. O especialista afirmou que muitas das preocupações legislativas são ainda pobres e captam aspectos secundários da utilização, como violações a direitos autorais, dados e deep fakes eleitorais. “Acredito não estamos com o debate amadurecido para uma solução legislativa eficaz”, afirmou.

PL prevê adaptação às mudanças nas tecnologias de Inteligência Artificial

Uma das principais preocupações dos líderes da Comissão foi a de fazer com que o PL possa responder de forma adequada aos principais riscos trazidos pela Inteligência Artificial tanto atualmente quanto no futuro. Com o desenvolvimento exponencial da tecnologia, é possível que riscos atuais possam ser resolvidos de forma simples em um futuro próximo, mas outras questão se apresentarão.

Pontes citou que uma das principais questões é a utilização não ética das ferramentas. Isso que não chega a ser um problema da tecnologia em si, mas de quem a utiliza. Dentre esses desvios éticos está, por exemplo, a discriminação de determinado grupo de pessoas, com base nos parâmetros de treinamento e das informações com as quais os sistemas são “alimentados”. Por exemplo, um programa de Inteligência Artificial que defina a disponibilidade de crédito financeiro e que se utilize de critérios como raça, gênero ou, até mesmo, que classifique as pessoas com base no histórico de sua família, por exemplo.

Isso já pode ser realidade em outros países. Há relatos não confirmados de que esse tipo de tecnologia estaria sendo usada na Rússia para recrutar para a guerra na Ucrânia cidadãos considerados menos úteis para a sociedade, como por exemplo pessoas com históricos de ficha criminal ou desemprego continuado. Isso viola princípios universais de igualdade e direitos humanos.

A privacidade de dados também é uma questão que deve ser observada para o desenvolvimento de sistemas de Inteligência Artificial. Por exemplo, para que um sistema de Inteligência Artificial faça análises do perfil financeiro de uma pessoa, ele pode cruzar informações de cartões de crédito, de compras em farmácia, entre outras. Longe de ser um problema futuro, a violação de direitos de privacidade já ocorreu em larga escala, como no caso da Cambridge Analytica e do Facebook, quando dados de milhões de pessoas foram comercializados e utilizados para a promoção de campanhas políticas em vários países.

Soluções de Inteligência Artificial podem colocar em risco a vida humana

Um ponto essencial é o risco de que sistemas de Inteligência Artificial possam ser uma ameaça à vida humana. Um exemplo desse tipo de aplicação, são os sistemas de armas, como mísseis, cuja “decisão” de acionamento possa ser feita pela própria Inteligência Artificial, sem a necessidade de intervenção humana. Da mesma forma, aplicações médicas cuja IA chegue à conclusão da existência de um quadro terminal e irreversível, podem levar à decisão de interromper o tratamento da pessoa. Esse ponto foi debatido pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) mas ainda não ganhou atenção de políticos não envolvidos com o grupo.

Outro risco é o de que a Inteligência Artificial seja utilizada para controle social. Ou seja, para vigiar e manipular as pessoas, por meio de sistemas de geolocalização, de reconhecimento facial ou biométrico, de câmeras de vigilância cujas imagens e dados possam ser analisadas de forma isolada ou integrada. Isso pode comprometer a liberdade individual e coletiva, além de conferir poderes exacerbados às autoridades ou àqueles que detenham o controle dessas aplicações. Isto é, a implementação de uma espécie de Big Brother nos espaços públicos.

Menos distópico, mas não menos preocupante, está a possibilidade, a cada dia mais factível, de que sistemas de Inteligência Artificial realizem funções na indústria e no mercado de serviços e, dessa forma, substituam milhões de trabalhadores.

O próprio Elon Musk, empresário dono da Tesla, da Starlink e do X (antigo Twitter), afirmou no dia 23 de maio, durante uma conferência em Paris, que a Inteligência Artificial suprimirá todos os empregos. Segundo ele, as pessoas que desejarem ainda poderão trabalhar como um passatempo, e que as demais precisarão receber uma “alta renda universal”, ainda que não tenha explicado exatamente o que ela seria.

Ainda que seja um entusiasta da Inteligência Artificial, no final do ano passado ele criou a empresa X.AI para desenvolver soluções nesse campo. Mas o bilionário já alertou sobre os riscos do desenvolvimento desenfreado da tecnologia. Em março de 2023, ele e outros especialistas no setor assinaram uma carta aberta solicitando uma pausa de 6 meses no desenvolvimento de ferramentas de Inteligência Artificial, o que não ocorreu.

Regulação pode trazer matriz para avaliação de riscos da Inteligência Artificial

Diante dos riscos já vislumbrados e da rápida evolução da Inteligência Artificial em todo o mundo, o senador Marcos Pontes avalia que não se pode prever quais serão os mais perigosos no caso do Brasil. Nesse sentido, ele destaca que a regulamentação brasileira deve ser “baseada em princípios, fomento e em uma matriz de risco que sirva de balizador para os desenvolvedores e o Governo Federal”.

Para tanto, o substitutivo proposto pelo senador não elenca cada um dos riscos previstos, mas traz uma tabela de classificação para que sejam avaliados com base em parâmetros gerais de probabilidade e gravidade do impacto – uma espécie de matriz de riscos. De acordo com essa proposta, o desenvolvedor ou operador do sistema deve realizar o cálculo final do risco de seu sistema ou aplicação. Todo esse processo será monitorado e analisado pela autoridade responsável pela regulação do setor – nesse caso, a sugestão é que seja a Autoridade Nacional de Proteção de Dados.

Em outras palavras, a ideia é que as próprias empresas avaliem os riscos das tecnologias que estão desenvolvendo. Mas essa avaliação de riscos deixaria de ser totalmente baseada em percepções subjetivas e passaria a ser submetida a um critério de avaliação universal e baseado em critérios científicos.



Source link

Artigos relacionados

Governo vai contratar 1 mil agentes de economia solidária até 2025

O programa de economia solidária do governo federal, que leva o nome...

Senado retira de pauta projeto que legalizaria bingos e cassinos

O Senado retirou de pauta nesta quarta-feira (4) o projeto (PL 2234/2022)...

Prefeitura do Rio assumirá gestão de dois hospitais federais

O Ministério da Saúde e a prefeitura do Rio de Janeiro chegaram...

Rui Costa diz que reação do mercado é ataque especulativo contra Real

O ministro da Casa Civil, Rui Costa, reagiu às pressões do setor...