O MODELO BRASILEIRO DOS ÓRGÃOS DE FISCALIZAÇÃO DA INTELIGÊNCIA ARTIFICIAL – Aspectos do Substitutivo do Sen. Eduardo Gomes ao PL 2338/23
Na última quarta-feira (dia
24.04), o Senador Eduardo Gomes (PL-TO) fez a apresentação do texto
substitutivo ao PL 2333/23 e outros nove projetos que tramitam em apenso. O
Senador é o relator dos projetos de lei que regulamentam a utilização e
desenvolvimento de sistemas de Inteligência
Artificial (IA), perante a Comissão Temporária Interna sobre Inteligência
Artificial no Brasil. Essa comissão foi criada no Senado em agosto do ano
passado especificamente para apreciar esses projetos, dada a elevada
importância social que a inteligência artificial representa para a sociedade
atual. O PL 2333/23 é o resultado do trabalho de uma comissão de juristas
instituída pelo Presidente do Senado, Senador Rodrigo Pacheco (PSD-MG), o qual
adotou o texto da comissão e iniciou o processo legislativo como projeto de sua
autoria[1].
Um dos pontos marcantes do substitutivo refere-se à
estruturação dos órgãos que terão a tarefa de fiscalização do desenvolvimento e
comercialização, no nosso país, de sistemas de IA. O Substitutivo propõe a
adoção de um modelo híbrido,
em que órgãos setoriais terão atribuição para regulamentar o uso da IA
dentro de suas áreas de atuação, sem excluir a participação de um órgão
regulador central, formulador das políticas sobre inteligência artificial e
com a função de coordenar o trabalho das demais agências e órgãos
reguladores.
De nada adiantaria legislar sobre sistemas de
inteligência artificial, criando obrigações para os desenvolvedores e fornecedores
de sistemas de IA, sem estabelecer agências e órgãos encarregados de implementar
a lei e fiscalizar sua aplicação. O arranjo regulatório não poderia deixar de
prever instrumentos de fiscalização para garantir a efetividade concreta de seus
princípios e objetivos. Por isso, o PL 2333/23 estabeleceu uma estrutura de
órgãos de governança e fiscalização, com definição de autoridades
regulatórias, entidades que poderão atuar com poder de polícia
administrativa e de regulamentação infralegal. São os órgãos públicos dotados
de competência regulatória, fiscalizatória e sancionatória, com poderes para
aplicar sanções em caso de desenvolvimento ou utilização de sistemas de
inteligência artificial em desconformidade com a legislação.
Houve uma acesa
discussão entre os membros da comissão de juristas sobre o modelo da
organização dos órgãos de regulação e fiscalização. As opções seriam a criação
de um novo órgão regulador dedicado ao tema da inteligência artificial, ou
seja, a criação de uma autoridade central, uma agência reguladora única para
a IA, ou um modelo descentralizado, com diversos órgãos dotados de
competência regulatória e fiscalizatória.
Os que
defendiam a criação de uma agência única para regular a IA apontavam não ser
possível tratar o tema de modo descentralizado, em razão da necessidade de se
estabelecer uma política uniformizada sobre inteligência artificial no país. A
maior parte dos integrantes da comissão de juristas, no entanto, apostou num modelo
de regulação setorial, com o aproveitamento das capacidades estatais já
existentes. Argumentou-se que cada setor da economia já possui regulação e
regras específicas e que elas serão estendidas também aos sistemas de IA utilizados
em cada setor. Mas mesmo entre os defensores da regulação setorial, foi
reconhecida a necessidade de uma forma de coordenação geral entre os setores,
para evitar superposições ou conflitos regulatórios. Concebeu-se a existência
de “um órgão regulador central que trabalhe como coordenador desses tantos
atores setoriais regulatórios”.
Assim
surgiu o modelo híbrido de
regulação da inteligência artificial no Brasil. A governança e fiscalização dos
sistemas de inteligência artificial não vai ser desempenhada por um regulador
único, pois as agências reguladoras setoriais, bem como outros órgãos públicos
que tenham prerrogativas fiscalizatórias, poderão atuar desempenhando o papel
de agente fiscalizador. Haverá uma autoridade central para evitar que as
agências setoriais regulem de maneira totalmente discrepante fenômenos
semelhantes, criando exigências e obrigações sem coerência com a política
nacional para a IA ou mesmo proporcionando conflitos de regulações setoriais.
Dessa forma, preserva-se o contexto e especificidades de cada área da economia
regulada e aproveita-se a experiência e estrutura das agências reguladoras já
existentes, além de evitar o descompasso normativo e superposição
fiscalizatória entre os diversos órgãos estatais, já que atuarão sob a
coordenação geral da “autoridade competente”.
Nessa linha
de concepção, o art. 33 do PL 2333/23 nomeia de “autoridade competente” o “órgão central de aplicação desta Lei e do
estabelecimento de normas e diretrizes para sua implementação”. Mas o art. 34
ressalva que “a autoridade competente e os órgãos e entidades públicas responsáveis
pela regulação de setores específicos da atividade econômica e governamental
coordenarão suas atividades, nas correspondentes esferas de atuação, com vistas
a assegurar o cumprimento desta Lei”.
O
Substitutivo do Senador Eduardo Gomes avança nesse campo da estruturação do
modelo regulatório brasileiro para a IA, ao criar o SIA – Sistema Nacional de Regulação e Governança de Inteligência
Artificial (art. 40), que tem como objetivos: a) valorizar e reforçar as
competências regulatórias, sancionatórias e normativas das agências e órgãos
reguladores setoriais em harmonia com as regras gerais da autoridade competente; b) harmonizar e colaborar com agências e
órgãos reguladores de outros temas transversais como defesa da concorrência,
defesa do consumidor e do meio-ambiente; e c) colaboração descentralizada entre
agências e órgãos reguladores federais, estaduais, distritais e municipais.
Além da autoridade
competente (a autoridade central reguladora), que funcionará como órgão de
coordenação (art. 40, § 1º. , inc. I, e art. 41), o SIA será integrado pelos órgãos
e entidades estatais de regulação setorial (agências reguladoras), órgãos e
entidades estatais reguladores de inteligência artificial, o Conselho
Administrativo de Defesa Econômica(CADE), entidades de autorregulação[2] e entidades acreditadas de
autocertificação[3](art.
40, § 2º).
Pela
composição do SIA, observa-se que será integrado não apenas por órgãos
estatais, mas também por entidades privadas (a exemplo das entidades de
autorregulação e entidades certificadoras). A Autoridade Competente será um órgão da administração pública
federal, dotado de autonomia técnica, decisória e financeira, que coordenará o
SIA (art. 5º., X) e será designada pelo Poder Executivo (art. 32). Também se
percebe que o ecossistema regulatório aperfeiçoado e expandido pelo texto do
Substitutivo admite a criação de novas agências reguladoras, talhadas
para a fiscalização dos sistemas de IA. Ao prever a existência de “órgãos e
entidades estatais reguladores de inteligência artificial” (no art. 40, § 1º.,
II, b), ao lado dos “órgãos e entidades estatais de regulação setorial” (no
art. 40, § 1º., II, b), o novo texto abre o caminho para a criação de novos
órgãos públicos. Nesse ponto, o Substitutivo se distancia da redação original
do PL 2333/23, pois o modelo concebido pela comissão de juristas buscava
aproveitar o potencial das agências reguladoras existentes (como, p. ex., a
Anatel, o Banco Central, o CADE, a Anvisa e a ANS), sem criação de novos órgãos
para a tarefa de fiscalização dos sistemas de IA.
A previsão
de órgãos especializados na regulação da inteligência artificial,
funcionando sob a coordenação de uma autoridade central (a Autoridade Competente) aperfeiçoa o ecossistema regulatório, pois
entidades sem aptidão para enfrentar os problemas específicos decorrentes das
tecnologias que utilizam IA, certamente não teriam papel regulatório eficiente.
As tecnologias de inteligência
artificial mudam muito rapidamente e é difícil dar
conta das transformações que ocorrem nessa área. Agências e órgãos não
especializados certamente teriam dificuldade para reduzir riscos provocados
pelo mau uso da tecnologia, classificar riscos, evitar a discriminação de
grupos minoritários da população, garantir a transparência do funcionamento dos
sistemas e proteger a privacidade dos usuários. Trata-se de atribuições não
compatíveis com órgãos que não sejam especialmente criados para a tarefa
regulatória dos sistemas de IA. Esperar que as agências já existentes,
que regulam setores diversos da economia, pudessem assumir sozinhas a tarefa
regulatória em área tão especializada e inovadora não parecia ser realmente a
melhor escolha. Portanto, o Substitutivo do Senador Eduardo Gomes aprimora o
sistema regulatório para a IA, ao prever “órgãos e entidades estatais
reguladores de inteligência artificial”, funcionando sob a coordenação da Autoridade Competente.
Os artigos
41 e 42 do texto do Substitutivo estabelecem as atribuições da Autoridade Competente, órgão de cúpula e
de coordenação central do SIA, que tem competência para, dentre outras medidas,
expedir normas vinculantes de caráter geral, expedir diretrizes sobre
desenvolvimento, implementação e uso de sistemas de IA, zelar pela proteção de
direitos afetados pela utilização de sistemas de IA, estimular a adoção de boas
práticas no desenvolvimento de sistemas de IA, solicitar informações às empresas
que utilizem sistemas de IA, receber petições e reclamações em face de agentes
de inteligência artificial[4] e realizar auditorias em
sistemas de IA.
O art. 45
estabelece a competência da Autoridade
Competente para aplicar sanções aos agentes
de inteligência artificial, por infração à legislação, que podem ser advertência,
multa (limitada a 50 milhões ou 2% do faturamento da empresa ou
conglomerado empresarial no Brasil no último exercício, excluídos os tributos),
publicização da infração, proibição de participar em regime de sandbox regulatório[5] por até 5 anos, suspensão
da operação ou fornecimento do sistema de IA e proibição de tratamento
de determinadas bases de dados. As sanções só podem ser aplicadas após
procedimento administrativo que possibilite a ampla defesa e observados certos
parâmetros e critérios (art. 45, § 1º.).
Antes ou
durante o procedimento administrativo instaurado para aplicação de sanção, a Autoridade Competente pode adotar medidas
preventivas, incluída multa cominatória, quando houver a
possibilidade de o agente de inteligência
artificial causar dano irreparável ou de difícil reparação ou tornar
ineficaz o resultado final do processo (art. 45, § 2º.,incs. I e II).
A imposição
de sanção pela Autoridade Competente
não exclui a possibilidade de aplicação de outras sanções administrativas, civis
ou penais previstas no CDC (Lei 8.078/90), na LGPD (Lei 13.709/18) e em outras
legislações específicas (art. 45, § 3º.).
Como se
disse, o texto do Substitutivo do Senador Eduardo Gomes reforça a estrutura de
órgãos públicos para supervisão e fiscalização do desenvolvimento e
comercialização de sistemas de IA. O modelo híbrido de regulação
proposto, que prevê a existência de um órgão estatal central, com papel de
coordenação de órgãos setoriais inferiores e com poderes para expedição de
normas de caráter geral, parece ser mais bem elaborado do que os modelos
norte-americano e europeu.
Nos EUA,
foi adotado um modelo de regulação setorial, deixando para as agências
de cada área da economia regulada a tarefa de supervisionar os sistemas de IA.
A Ordem Executiva n. 13.859, de 11 de fevereiro de 2019, expedida pelo
Presidente Joe Biden, define esse tipo de abordagem regulatória. O Regulamento
aprovado recentemente pela União Europeia para a inteligência artificial, que recebeu o nome de Artificial
Intelligence Act, por sua vez adotou uma abordagem regulatória de agência
única, sem divisão das competências regulatórias por um conjunto de
instituições. O modelo brasileiro é uma simbiose desses dois modelos
estrangeiros.
O texto do
Substitutivo não é definitivo, e ainda vai receber emendas (até o dia 09 de
maio) antes de ser submetido à deliberação na comissão temporária, que tem até
o dia 23 de maio para encerrar seus trabalhos[6]. Após análise pela
comissão temporária, o texto será discutido no plenário e, se aprovado, ainda
vai ser submetido à nova tramitação, desta vez perante a Câmara dos Deputados
(já que modifica alguns projetos originados na Câmara). Existe uma expectativa
de que o projeto vire lei ainda em 2024, mas como teremos eleições pode ficar
difícil a aprovação pelo Congresso Nacional do marco regulatório da IA
este ano.
Agora é esperar a entrada em vigor da legislação brasileira para saber
se o modelo híbrido vai funcionar adequadamente. A concepção do modelo
regulatório brasileiro, como se disse, parecer ser mais aperfeiçoada do que
seus congêneres alienígenas. O importante é que, uma vez aprovada a legislação,
o modelo sirva para a concretização do princípio fundamental que a inspirou:
resguardar os direitos fundamentais sem prejudicar o desenvolvimento
tecnológico.
Recife,
26.04.24.
[1]A Comissão de Juristas foi instalada em 30.03.22, com a incumbência de elaborar anteprojeto de lei sobre regulação da IA. O Senador Rodrigo Pacheco recebeu o relatório final da Comissão de Juristas em 06.12.22. Ver notícia publicada no site do Senado no seguinte link: https://www12.senado.leg.br/noticias/materias/2022/12/06/pacheco-recebe-relatorio-da-comissao-de-juristas-sobre-inteligencia-artificial
[2]Os desenvolvedores e fornecedores de sistemas de IA podem associar-se voluntariamente sob a forma de pessoa jurídica sem fins lucrativos para promover a autorregulação com o objetivo de incentivar e assegurar melhores práticas de governança (art. 37).
[3]As entidades
certificadoras são associações de desenvolvedores e fornecedores de
sistemas de IA ou de usuários técnicos e especialistas em governança
acreditadas pela Autoridade Competente
para a certificação e concessão de selos com o objetivo de incentivar e
assegurar melhores práticas de governança (art. 36).
[4]O art. 5º., IX, define agentes de inteligência artificial como “desenvolvedores, fornecedores, aplicadores e outros agentes, que atuem na cadeia de valor e na governança de sistemas de inteligência artificial, nos termos definidos por regulamento”.
[5]O art. 5º.,XIX, defineambiente regulatório experimental (sandbox) como o “processo estabelecido pela autoridade competente e demais autoridades regulatórias com vistas a facilitar o ciclo de vida seguro, ágil e inovador de sistemas de IA”.
[6]Ver notícia publicada no portal Terra, em 29.04.24, acessível em:https://www.terra.com.br/noticias/brasil/politica/comissao-do-senado-deve-apresentar-regras-para-uso-de-inteligencia-artificial-em-maio,fae3af13cbe4530f162802989075e188rur394h1.html?utm_source=clipboard