Regulação da IA no Brasil: Estamos em um Bom Caminho
Relatório de Evento, por Rodrigo Brandão
No dia 25 de abril de 2023, o Observatório da Inovação e Competitividade (OIC), sediado no Instituto de Estudos Avançados (IEA) da Universidade de São Paulo (USP), realizou o seminário “Regulação da IA no Brasil: Estamos em um Bom Caminho?”1. Participaram do evento Juliano Maranhão (FD-USP) e Loren Spíndola (ABES), como expositores, e Cristina Godoy (FD-USP Ribeirão), como debatedora. A moderação foi feita por Rodrigo Brandão (Cetic | NIC.br e OIC/IEA/USP).
As discussões do evento giraram em torno da minuta de substitutivo aos Projetos de Lei (PLs) nºs 5.051, de 2019, 21, de 2020, e 872, de 2021. Este documento foi preparado pela Comissão de Juristas Responsável por Subsidiar a Elaboração de Substitutivo sobre Inteligência Artificial no Brasil (CJSUBIA) e converteu-se no PL 2.338/2023, apresentado pelo senador Rodrigo Pacheco em 03 de maio de 2023. Os participantes discutiram, principalmente, os tipos de abordagem regulatória e o nível necessário de detalhamento de medidas de governança de sistemas de IA.
Membro da CJSUBIA e responsável pela primeira apresentação do evento, Maranhão afirmou que – assim como o AI Act europeu – a minuta de substitutivo propõe uma abordagem regulatória transversal baseada em riscos. Essa orientação possui duas implicações: (i) as mesmas normas devem ser válidas para o desenvolvimento, implementação e utilização da IA independentemente do setor em que aconteçam; (ii) todo sistema de IA deve ter seu grau de risco avaliado, e medidas de governança devem ser adotadas de acordo com o grau de risco identificado. A minuta apresenta uma lista dos sistemas de IA considerados de risco excessivo e de alto risco, e estabelece que essa lista deverá ser atualizada por uma autoridade administrativa a ser designada pelo Poder Executivo. O palestrante esclareceu que aplicações e finalidades que não estejam nessa lista devem ser entendidas como sendo de risco médio ou baixo. Entre os sistemas de risco excessivo, estão, por exemplo, os que empregam técnicas subliminares capazes de induzir os indivíduos a se comportarem de forma prejudicial ou perigosa à sua saúde ou segurança. Os sistemas de alto risco, por sua vez, são definidos de acordo com as finalidades para as quais são empregados. A esse segundo grupo, a minuta de substitutivo aloca aplicações diversas, como as que são feitas na área da saúde.
A classificação do grau de risco, lembrou Maranhão, deverá ser feita pelo fornecedor do sistema de IA por meio de uma avaliação preliminar, tendo como referência a lista de sistemas de risco excessivo e de alto risco. O texto veda a implementação e o uso de sistemas de IA de risco excessivo. Nos outros dois casos, isso é, diante de sistemas de alto risco e de sistemas que não sejam nem de risco excessivo, nem de alto risco, os agentes de IA – ou seja, fornecedores e operadores dessa tecnologia – deverão adotar estruturas de governança e processos internos previstos na minuta, como a adoção de parâmetros adequados de separação e organização dos dados para treinamento, teste e validação dos resultados do sistema. No caso dos sistemas de alto risco, os agentes de IA deverão adotar medidas adicionais, como a avaliação de impacto algorítmico e a realização de testes para avaliação de níveis apropriados de confiabilidade, conforme o setor e o tipo de aplicação do sistema de IA, incluindo testes de robustez, acurácia, precisão e cobertura.
Segundo Maranhão, a CJSUBIA adotou uma categorização exemplificativa de riscos por entender que seria difícil chegar a uma definição consensual do termo “alto risco” e que uma definição genérica acabaria dando margem a ativismos judiciais. Já em relação às medidas de governança, o expositor observou que elas são menos detalhadas do que as observadas no AI Act europeu, o que dará às agências reguladoras brasileiras espaço de atuação e garantirá às entidades associativas empresariais a chance de criar códigos de conduta capazes de adaptar para cada setor econômico tanto as medidas de governança elencadas na minuta, quanto normas internacionais, como as elaboradas pela ISO, que têm caráter transversal e top-down. Maranhão mencionou ainda uma segunda diferença importante entre os documentos brasileiro e europeu. De acordo com o expositor, o texto da CJSUBIA confere centralidade a direitos fundamentais, o que – a depender da conduta dos tribunais – pode dar margem à insegurança jurídica, pois, em casos específicos, os tribunais e as autoridades administrativas podem vir a ter entendimentos distintos sobre a capacidade de determinadas medidas de governança para assegurar direitos.
Em sua exposição, Spíndola apontou que o setor privado não tem restrições a abordagens regulatórias baseadas em risco, desde que sejam acompanhadas por uma definição rigorosa e precisa do conceito de risco. Sem isso, argumentou a palestrante, a insegurança jurídica tende a ser elevada, uma vez que as empresas não podem saber – enquanto desenvolvem um sistema de IA – qual será o grau de risco deste sistema quando ele estiver pronto. Spíndola lembrou ainda que um mesmo sistema de IA pode ter diferentes usos, logo, abordagens regulatórias transversais não conseguiriam disciplinar as especificidades de cada aplicação. Por essas razões, defendeu que a regulação seja baseada em princípios que orientem as condutas dos agentes de sistemas de IA.
A abordagem principiológica, seguiu Spíndola, seria aconselhável por uma segunda razão. A IA vem experimentando mudanças rápidas e frequentes. Por isso, os países e as empresas ainda estão aprendendo a lidar com ela. Os primeiros estão procurando entender, por exemplo, como podem garantir a interoperabilidade dos sistemas de IA, enquanto os grupos econômicos têm buscado compreender como podem solucionar problemas ligados ao desenvolvimento e ao emprego da tecnologia ora em tela. Em um cenário de aprendizado como este, a palestrante alertou que a adoção de regulações rígidas pode ter ao menos três consequências adversas: (i) levar o Brasil a se distanciar de outros países no que compete ao desenvolvimento e à utilização de sistemas de IA, o que poderá lhe fechar mercados; (ii) impor a empresas de médio e pequeno porte obrigações de governança que elas, simplesmente, não têm condições de atender; (iii) fazer com que as empresas de grande porte – tanto as nacionais, quanto as estrangeiras que operam no país – deixem de explorar soluções de governança para os problemas com os quais se deparam.
Ao comentarem o terceiro dos três tópicos acima, Maranhão e Godoy afirmaram ser necessário existir espaço regulatório para a criação de soluções bottom-up no campo da governança, em oposição à abordagem top-down presente na minuta de substitutivo. No contexto dessa discussão, os três participantes concordaram que os países precisam regular os sistemas de IA de acordo com necessidades locais. Maranhão lembrou que, na saúde, por exemplo, falsos positivos (p.ex., “não-câncer predito como câncer”) impõem custos aos sistemas de saúde, enquanto falsos negativos (p.ex., “câncer predito como não-câncer”) representam risco de vida para os pacientes. Esses outputs tecnológicos colocam desafios distintos às lideranças públicas dos diferentes países. Em localidades onde o acesso à saúde já é bastante consolidado, elas devem ponderar se desejam, ou não, diminuir o número de falsos positivos, ainda que isso possa aumentar as chances de ocorrência de falsos negativos. Já em países onde o acesso individual à saúde é menos frequente, as lideranças públicas devem estar cientes de que falsos negativos possuem chances menores de identificação, e que a reversão desse quadro passa, ao menos em parte, pela elevação do número de faltos positivos, e, portanto, pelo aumento dos custos em saúde.
Finalmente, cabe relatar que, em seus comentários, Godoy demonstrou dúvida sobre a eficácia da abordagem principiológica defendida por Spíndola. A pesquisadora lembrou que já existem inúmeros princípios para uma IA ética e responsável, como os da OCDE, não estando claro, para ela, como a aprovação de novos princípios poderia dirimir dúvidas e disputas em torno do desenvolvimento e da aplicação de sistemas de IA. Indo além, Godoy afirmou que a existência de princípios genéricos pode ter consequências contrárias às pretendidas, mais precisamente, eles podem levar o Judiciário a tomar decisões distintas em relação a casos semelhantes, ampliando, assim, inseguranças jurídicas ligadas à IA.
Para que este cenário seja evitado, a pesquisadora observou ser importante não tentarmos construir uma regulação cautelar, que procure ser à prova do futuro. Além disso, apontou que não precisamos ter pressa para regular juridicamente a IA, pois – em termos de responsabilidades civis – estamos “cobertos”, pois temos, entre outros regramentos, o Código Civil, o Código de Defesa do Consumidor e a Lei Geral de Proteção de Dados Pessoais. Por estarmos resguardados por esses dispositivos legais, Godoy entende que estamos habilitados a nos dedicar a uma tarefa longa e necessária, qual seja, identificar, nos diferentes setores, como tornar legislações já existentes aptas à regulação da IA, e observar como as empresas que procuram utilizar a IA eticamente tem se comportado no campo da governança. Alinhada a essas afirmações, Spíndola lembrou que a Nova Zelândia adotou – de maneira bem-sucedida – essa estratégia. Maranhão, por sua vez, afirmou que – frente às mudanças rápidas e frequentes que têm sido observadas no campo da IA – deve-se apostar menos no conteúdo da regulação, e mais em arranjos institucionais capazes de validar ou rejeitar autorregulações setoriais de acordo com parâmetros de interesse público promovidos pelo Estado.
Outras questões abordadas no evento:
Fragmentação do debate regulatório e perspectivas legislativas. Spíndola apontou que, no Brasil, o debate regulatório vem sendo feito de maneira fragmentada. A palestrante lembrou haver uma miríade de PLs versando sobre a regulação da IA e que cada um deles procura abordar um aspecto específico do debate, sem se preocupar com a criação de parâmetros comuns. À título de exemplo, mencionou o PL 1.473/2023, que procura preservar os direitos autorais frente aos avanços da IA. Já Maranhão mencionou os PLs 2.630/20, que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, e 2.768/22, que atribui à Anatel o poder de regular o funcionamento e a operação das plataformas digitais que operam no Brasil, que também trazem disposições sobre IA. O palestrante lembrou ainda que, na União Europeia, o debate sobre a regulação da IA tem sido feito de maneira mais coesa, uma vez que há alguma “amarração” entre o AI Act, o Digital Services Act (regulação de mídias sociais) e o Digital Markets Act (regulação concorrencial das plataformas). Por fim, Spíndola afirmou que a falta de coordenação também pode ser observada entre os Poderes Executivo e Legislativo, dado que as discussões lideradas pelo segundo pouco se conectam a esforços públicos capitaneados pelo primeiro, como a Estratégia Brasileira de Inteligência Artificial e a Política Nacional de Educação Digital.
Spíndola foi indagada como o setor privado tende a se posicionar diante de um cenário tão fragmentado quanto este, sobretudo no Legislativo. A expositora mencionou que o PL 2.338/2023 tem méritos2, mas que o PL 2.120/2020 é um excelente ponto de partida para a discussão regulatória – não só porque possui uma abordagem principiológica, mas também porque já foi alvo de forte escrutínio público, uma vez que foi intensamente discutido (e aprovado) pela Câmara dos Deputados.
ChatGPT. Maranhão afirmou que o AI Act europeu é fortemente baseado em modelos de Machine Learning, os quais são voltados a usos específicos, dando margem a riscos igualmente específicos. Frente ao fortalecimento das IA Generativas – que tendem a ser de propósito geral –, alguns críticos apontam que o texto já estaria obsoleto, antes mesmo de ter sido aprovado. Ainda que veja sentido na crítica, o palestrante não a considera completamente válida, pois o documento europeu – assim como o texto preparado pela CJSUBIA – preveem medidas de governança não apenas para os fornecedores, mas também para os operadores de sistemas de IA. Além disso, por mais que uma tecnologia seja de propósito geral, cada operador fará um uso específico dela. Ademais, pontuou Maranhão, o texto brasileiro possui dispositivos voltados a tecnologias de propósito geral.
1 Este seminário teve o apoio institucional do C4AI USP-FAPESP-IBM. Ele integra o ciclo de debates “Desafios e Oportunidades da IA – Perspectivas Setoriais”, uma iniciativa que pretende criar espaços de diálogo entre pesquisadores e representantes do setor privado para que, juntos, possam refletir sobre soluções regulatórias em favor da maximização dos benefícios da IA, minimização de seus riscos e prevenção dos danos associados à sua aplicação. Gravação do evento: [link].
2 Posicionamento público da ABES sobre a minuta de substitutivo preparada pela CJSUBIA: [link]
Deixe seu comentário