Cientistas criticam projeto que regulamenta uso da inteligência artificial

“Um convite às grandes mentes da área mudarem de endereço”, diz coordenador do curso de Inteligência Artificial da Universidade Federal de Goiás sobre regulamentação excessiva

Foto: Reprodução

A Câmara dos Deputados aprovou no dia 29 de setembro o Projeto de Lei 21/20, que estabelece fundamentos e princípios para o desenvolvimento e a aplicação da inteligência artificial no Brasil, listando diretrizes para o fomento e a atuação do poder público no tema. A matéria será enviada ao Senado.

A regulamentação do uso da Inteligência Artificial busca balancear o incentivo à inovação e a proteção da livre concorrência para garantir direitos humanos e valores democráticos, promovendo a segurança dos agentes, privacidade e a proteção de dados. O Brasil não saiu à frente na corrida regulatória da IA, mas pode realizar a regulamentação à luz das experiências internacionais dos Estados Unidos e União Europeia que já passaram pelo processo.

O projeto, de autoria do deputado Eduardo Bismarck (PDT-CE), foi aprovado na forma do substitutivo da relatora, deputada Luisa Canziani (PTB-PR). O projeto define fundamentos e princípios para o desenvolvimento e a aplicação da inteligência artificial, incluindo diretrizes para o fomento e a atuação do poder público no tema. O texto estabelece como sistemas de inteligência artificial as representações tecnológicas oriundas do campo da informática e da ciência da computação. Caberá privativamente à União legislar e editar normas sobre a matéria.

O texto define sistema de inteligência artificial aquele baseado em processo computacional que, a partir de um conjunto de objetivos definidos por humanos, pode, por meio do processamento de dados e informações, aprender a perceber, interpretar e interagir com o ambiente externo, fazendo predições, recomendações, classificações ou decisões. Entre eles estão os sistemas de aprendizagem de máquina (machine learning), incluindo aprendizagem supervisionada, não supervisionada e por reforço.

Segundo a relatora do projeto, a proposta aprovada também delineia direitos dos usuários de tais sistemas, como a ciência da instituição que é responsável pelo sistema, o direito de acesso a informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados pelo sistema. “Além disso, há o estabelecimento de alguns fundamentos para o uso da inteligência artificial no Brasil, tais como o desenvolvimento tecnológico e a inovação, a livre iniciativa, a livre concorrência e o respeito aos direitos humanos e aos valores democráticos. Também foram preceituados objetivos que visam, por exemplo, à promoção da pesquisa e do desenvolvimento de uma inteligência artificial ética e livre de preconceitos e da competitividade e do aumento da produtividade brasileiros”, explicou a deputada.

De acordo com a relatora, o texto original é inspirado nos conceitos e diretrizes propostos na Recomendação sobre Inteligência Artificial da Organização dos Estados para o Desenvolvimento Econômico (OCDE). “O documento da OCDE é uma das principais referências internacionais sobre o assunto e já foi formalmente subscrito pelo Brasil, apesar do país não integrar ainda a OCDE. No entanto, por se tratar de um documento de uma organização internacional e apresentar natureza principiológica, seu texto é propositadamente mais aberto e vago”, argumentou deputada Luisa Canziani.

Essencialmente, a inteligência artificial funciona por meio de programações usadas em sistemas computacionais, aplicativos ou mesmo máquinas que permitem ao programa aprender a perceber, interpretar e interagir com o ambiente externo, fazendo predições, recomendações ou classificações ou tomando decisões. Esse aprendizado ocorre a partir de objetivos definidos pelos criadores do sistema e se aplica ao sistema de aprendizagem de máquina (machine learning), aos sistemas baseados em conhecimento ou em lógica, às abordagens estatísticas e aos métodos de pesquisa e otimização.

O projeto lista vários aspectos que dependerão de regulamentação do Executivo federal por meio de órgãos e entidades setoriais com competência técnica na área, como as agências reguladoras e o Banco Central. “Quem melhor que a Anvisa para avaliar o uso de IA em medicamentos? Que o Banco Central para tratar de questões do mercado bancário? Ou que a Anac para tratar de questões relacionadas à aviação? Esses órgãos já possuem especialistas e normas que disciplinam seus respectivos setores. O que precisamos, afinal, são de diretrizes que indiquem quando e como estes reguladores setoriais podem e devem intervir no que diz respeito a IA”, escreveu em seu parecer.

Luisa Canziani, relatora do projeto de lei | Foto: Maryanna Oliveira/Câmara dos Deputados

Para Bismark, a proposta sinaliza para o mundo que o Brasil está atento à inovação e à inteligência artificial. “A inteligência artificial já faz parte da nossa realidade, e o Brasil vai ainda fazer outras legislações futuramente. O momento agora é de traçar princípios: direitos e deveres e responsabilidades”, defendeu. Os órgãos deverão monitorar a gestão do risco dos sistemas de inteligência artificial no caso concreto, avaliando os riscos de sua aplicação e as medidas de mitigação; estabelecer direitos, deveres e responsabilidades; e reconhecer instituições de autorregulação.

Quanto ao uso transparente e ético de sistemas de inteligência artificial no setor público, o poder público federal deverá promover a gestão estratégica e orientações.

Cientistas céticos quanto aos benefícios do projeto

O professor e coordenador do curso de Inteligência Artificial da Universidade Federal de Goiás (UFG), Anderson Soares, é uma das maiores autoridades em inteligência artificial do País. Ele explica que, apesar de bem intencionado, o projeto relatado por Luisa Canziani pode ter efeitos indesejados. “Particularmente, eu acho que tentar regular a inteligência artificial agora é um tiro no escuro. Mesmo entre nós cientistas não existe uma fronteira bem definida entre o que é inteligência artificial e o que é apenas software. Como trata-se de uma tecnologia de propósito geral, as aplicabilidades ainda estão sendo construídas. Desta forma, há mais chances de o marco travar o desenvolvimento do que chances de proteger contra malefícios que ainda nem sabemos se vão existir”.

Anderson Soares explica que regulamentação excessiva pode travar desenvolvimento | Foto: Fábio Costa / Jornal Opção

Anderson Soares exemplifica: “Se pudéssemos voltar no tempo, seria como proibir os computadores em função dos spams e links maliciosos. Sim, spams são problemas, mas olhe o que teríamos perdido. Por mais que as pessoas tenham receio da inteligência artificial, na época do surgimento dos computadores pessoais também tivemos todo esse bafafá. Lembra-se do bug do milênio? Achavam que o mundo ia acabar na virada dos anos 2000. As pessoas têm medo do desconhecido, é natural. Mas temos de entender o momento atual como uma nova revolução industrial, como uma oportunidade para avanço. Acredito que a melhor postura não é impedir o desenvolvimento por receio de malefícios para daqui a 10 anos perceber que estamos atrasados.

“As regulações são necessárias onde realmente são essenciais. Do contrário, você pode cercear mais do que ajudar. A Lei Geral de Proteção de Dados já foi excessivamente dura e suas consequências vão ficar mais claras à frente. Receio que regulamentação excessiva seja um convite às grandes mentes da área mudarem de endereço.”

Anderson Soares

Segundo o professor, as experiências passadas mostram que as tentativas de regulação estatal na área de tecnologia tendem a inibir a inovação. “No desenvolvimento tecnológico e científico, nós precisamos ter liberdade para tatear primeiro. Depois as regulamentações aparecem, se necessárias, como demandas da própria sociedade. Entendo que a intenção é nobre, mas há sim o risco de políticos darem canetadas na direção errada por não compreenderem direito como tudo acontece na prática”.

Comentando especificamente sobre o projeto encaminhado ao Senado, Anderson Soares, afirma que enquanto lia o projeto, teve a impressão de que os deputados acreditam que a qualquer momento a inteligência artificial criaria vida e se voltaria contra os humanos. Segundo o professor, não há conflitos entre nós e os softwares automatizadores de tarefas que criamos. Os malefícios que o projeto tenta evitar não estão bem definidos, segundo Anderson Soares, porque parte das concepções contidas no texto não vêm da atividade real de programação de softwares, mas do marketing feito sobre os poderes da inteligência artificial.

Entretanto, na opinião de Anderson Soares, nem todo o projeto é ruim. “O projeto tocou em pontos muito interessantes ao apontar que a sociedade precisa se preparar para uma qualificação profissional que compreenda essa tecnologia. Isso é muito verdade: se não investirmos nessa direção, nosso fosso social vai se alargar. Não estou falando apenas de profissionais da tecnologia da Informação. Pense em qualquer trabalhador. Quem não sabe utilizar o computador para fazer cadastros e atualizar planilhas, essa pessoa tem uma grande desvantagem para se inserir no mercado. Teremos o mesmo com profissionais avessos a automatização de tarefas por softwares.”

Perguntado qual ítem específico no projeto pode atrapalhar o desenvolvimento tecnológico do país, Anderson Soares destaca alguns pontos: “O grande ponto negativo é a necessidade da decisão da inteligência artificial ser interpretável. Isso pode atrapalhar o desenvolvimento porque, quando a máquina toma uma decisão, nem sempre essa resposta é 100% justificada para o desenvolvedor. Um software que distribui anúncios, por exemplo, nem sempre sabe os critérios utilizados para mostrar as propagandas para cada pessoa – ele pode tomar a decisão baseado apenas no histórico pessoal de cliques em anúncios e em resultados prováveis. Exigir que se explique cada decisão não tem viabilidade científica.”

Diretrizes de atuação

O texto aprovado aponta várias diretrizes para atuação da União, dos estados, do Distrito Federal e dos municípios em relação ao uso e fomento dos sistemas de inteligência artificial no Brasil.

Entre elas destacam-se o dever de estimular a criação de mecanismos de governança transparente e colaborativa com a participação de representantes de vários setores; promover a cooperação internacional e a negociação de tratados, acordos e padrões técnicos globais que facilitem a “conversa” (interoperabilidade) entre os sistemas e a harmonização da legislação a esse respeito; e estimular a adoção de instrumentos regulatórios que promovam a inovação.

O poder público deverá atuar ainda para estimular a capacitação e a preparação das pessoas para a reestruturação do mercado de trabalho; e estimular práticas pedagógicas inovadoras, com visão multidisciplinar com reflexos sobre o processo de formação de professores. Segundo a relatora, a principal inspiração das modificações vem da proposta em tramitação no Parlamento Europeu e no Conselho da Europa para uma nova legislação europeia a respeito de inteligência artificial.

“Procuramos orientar a futura atividade regulatória nesse campo de modo a não inibir o desenvolvimento tecnológico, mas resguardando os cidadãos brasileiros de eventuais riscos”, afirmou Luisa Canziani. Ela ressaltou que não seguiu o modelo europeu quanto à proibição a priori de certos tipos de inteligência artificial ou de quais seriam de alto risco, deixando essas definições para a regulação ou autorregulação setorial posterior.

Quando disciplinar a aplicação da inteligência artificial, o poder público deve observar diretrizes como a intervenção subsidiária, a atuação setorial, a gestão baseada em risco, a participação social e interdisciplinar, a análise de impacto regulatório e a responsabilidade.

O texto define essas diretrizes:

– intervenção subsidiária: desenvolver regras específicas para os usos desses sistemas apenas quando absolutamente necessário;

– atuação setorial: a atuação do poder público deve considerar o contexto e as normas regulatórias específicas de cada setor;

– gestão baseada em risco: o desenvolvimento e o uso dos sistemas de inteligência artificial deverão considerar os riscos concretos e a probabilidade de ocorrência desses riscos em comparação com potenciais benefícios e riscos apresentados por sistemas similares sem inteligência artificial;

– participação social e interdisciplinar: normas baseadas em evidências e precedidas por consulta pública;

– análise de impacto regulatório: as normas devem ser precedidas de análise de impacto regulatório; e

– responsabilidade: normas sobre responsabilidade dos agentes devem se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes e os danos específicos que se deseja evitar ou remediar.

Foto: Reprodução

Relações de consumo

Quando a utilização do sistema de inteligência artificial envolver relações de consumo, o agente responderá independentemente de culpa pela reparação dos danos causados aos consumidores e no limite de sua participação efetiva nesses danos, observado o Código de Defesa do Consumidor.

De qualquer forma, as pessoas jurídicas de direito público ou privado prestadoras de serviços públicos responderão pelos danos que seus agentes, nessa qualidade, causarem a terceiros, assegurado o direito de regresso contra o responsável nos casos de dolo ou culpa.

O texto aprovado determina ainda que, na gestão com base em risco, a administração pública poderá, em casos concretos de alto risco, solicitar informações sobre as medidas de segurança e prevenção e respectivas salvaguardas. O acesso a esses dados deve observar os segredos comercial e industrial, mas também devem ser compartilhados nos termos e limites de transparência estabelecidos pelo projeto.

Princípios

Sobre os princípios, o texto prevê que os sistemas de inteligência artificial devem buscar resultados benéficos para a humanidade (finalidade benéfica); o respeito à dignidade humana, à privacidade, à proteção de dados pessoais e aos direitos fundamentais, quando o sistema tratar de questões relacionadas ao ser humano (centralidade do ser humano); e diminuir a possibilidade de uso dos sistemas para fins discriminatórios ilícitos ou abusivos (não discriminação).

Outros princípios são a busca pela neutralidade; a segurança e prevenção; a inovação responsável; a disponibilidade de dados; e a transparência, observados os segredos comercial e industrial, sobre o fato de estarem se comunicando com sistemas de inteligência artificial ou sobre os critérios gerais que orientam seu funcionamento.

Entre os objetivos, o texto cita o desenvolvimento científico e tecnológico, a promoção do desenvolvimento econômico sustentável e inclusivo e do bem-estar da sociedade, o aumento da competitividade e da produtividade brasileira, a inserção competitiva do Brasil nas cadeias globais de valor, a melhoria na prestação de serviços públicos e na implementação de políticas públicas, a promoção da pesquisa e desenvolvimento com a finalidade de estimular a inovação nos setores produtivos e a proteção e preservação do meio ambiente.

Fundamentos

O substitutivo de Canziani lista ainda 15 fundamentos relativos ao desenvolvimento e à aplicação da inteligência artificial no Brasil. Os principais

– a livre manifestação de pensamento e a livre expressão da atividade intelectual, artística, científica e de comunicação;

– o estímulo à autorregulação por meio da adoção de códigos de conduta e guias de boas práticas;

– a segurança, a privacidade e a proteção de dados pessoais, nos termos da Lei 13.709/18;

– a segurança da informação;

– a preservação da estabilidade, segurança, resiliência e funcionalidade dos sistemas de inteligência artificial por meio de medidas técnicas compatíveis com os padrões internacionais; e

– a harmonização com a Lei Geral de Proteção de Dados, com o marco civil da internet, com o Sistema Brasileiro de Defesa da Concorrência (Lei 12.529/11), com o Código de Defesa do Consumidor e com a Lei de Acesso à Informação.

Todas as regras terão vigência 90 dias depois de publicadas.

Emendas rejeitadas

O Plenário rejeitou duas emendas do deputado Bohn Gass (PT-RS). Uma delas pretendia incluir, entre os princípios da regulamentação, a promoção da inclusão, da diversidade e da equidade com a participação ativa em processos de consulta pública de grupos potencialmente afetados pela tecnologia específica.

A outra emenda exigia que a análise de risco deveria ser efetuada no âmbito de um relatório de impacto de inteligência artificial.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.