Tema que invariavelmente gera dúvidas e às vezes apreensão é o da contratação pela internet, em especial por conta das dificuldades de compreender a estrutura lógica do negócio virtual digital, seus riscos e os elementos ocultos que estão por trás de uma transação eletrônica.
Não se tem como duvidar, no entanto, que tais negócios já fazem parte do cotidiano e que já não é mais possível evitar a participação em negócios pela rede mundial de computadores. Contratos de consumo ou contratos em geral movimentam um sem-número de negócios todos os dias, com compras e vendas, locações, contratação de serviços, inclusive com novas formas de celebrar contratos tradicionais por meio eletrônico, com assinatura digital e a facilitação inclusive de atos públicos pela recente Lei dos Cartórios (lei 14.382/2022) que se tem denominado de Lei do Sistema Eletrônico de Registros Públicos (SERP).
Nesse contexto, sabe-se que muitas dessas negociações não têm em ambos os polos pessoas naturais “assinando” as manifestações de vontade, mas, sim, um robô dotado de conhecimento e de informações sobre a vida e os dados do outro contratante.
Este é um dos muitos motivos pelos quais surgiu o PL 2.338/2023, de iniciativa do Senador Rodrigo Pacheco, que no art. 1º descreve sua finalidade, de estabelecer “[…] normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de Inteligência Artificial (IA) no Brasil, visando proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico”.
O importante Projeto de Lei nasce privilegiado em qualidade e técnica, visto que advém do Ato n.º 4/2022 do Presidente do Senado Federal, que em 17 de fevereiro deste ano incumbiu uma Comissão de notáveis Juristas para subsidiar a elaboração de minuta de substitutivo para os PLs 5.051/2019, 21/2020 e 872/2021, com objetivo de regular o desenvolvimento e a aplicação da Inteligência Artificial no Brasil.
A Comissão de Juristas, sob a presidência do ministro Ricardo Villas Bôas Cueva e relatoria da professora Laura Schertel Mendes, contou os seguintes membros: Ana Frazão, Bruno Bioni, Danilo Doneda, Fabrício da Mota, Miriam Wimmer, Wederson Siqueira, Cláudia Lima Marques, Juliano Maranhão, Thiago Sombra, Georges Abboud, Frederico D’Almeida, Victor Marcel, Estela Aranha, Clara Iglesias Keller, Mariana Valente e Filipe Medon.
Dentre os muitos temas importantes que o Projeto contempla, no presente texto, pretende-se tratar brevemente dos art. 7º e 8º, que compõem a Seção II, sob o título “Dos direitos associados a informação e compreensão das decisões tomadas por sistemas de Inteligência Artificial”.
O interesse existe porque é voz corrente a dificuldade que o leigo tem de conhecer e entender como a Inteligência Artificial toma decisões e/ou adota determinado comportamento nas relações entre o humano e a máquina. Dessa realidade, surge o direito de o contratante receber, previamente à contratação ou à utilização de sistemas, informações claras e adequadas quanto a sete situações, descritas nos incisos do aludido artigo da futura Lei. São eles:
I – caráter automatizado da interação e da decisão em processos ou produtos que afetem a pessoa;
II – descrição geral do sistema, tipos de decisões, recomendações ou previsões que se destina a fazer e consequências de sua utilização para a pessoa;
III – identificação dos operadores do sistema de inteligência artificial e medidas de governança adotadas no desenvolvimento e emprego do sistema pela organização;
IV – papel do sistema de inteligência artificial e dos humanos envolvidos no processo de tomada de decisão, previsão ou recomendação;
V – categorias de dados pessoais utilizados no contexto do funcionamento do sistema de inteligência artificial;
VI – medidas de segurança, de não-discriminação e de confiabilidade adotadas, incluindo acurácia, precisão e cobertura; e
VII – outras informações definidas em regulamento.
O § 1º ainda determina que, para além do fornecimento de informações de maneira completa em meio físico ou digital aberto ao público, quando a informação a ser obtida for a pertinente ao inc. I, ou seja, sobre o caráter automatizado da interação e da decisão em processos ou produtos que afetem a pessoa, deverá ser fornecida, quando possível, “com o uso de ícones ou símbolos facilmente reconhecíveis”.
Em outras palavras, o que se pretende é que a pessoa tenha condições de compreender sobre com quem está lidando e qual o poder que a máquina alcança na relação “interpessoal” em desenvolvimento.
Mencione-se, ainda, que o conteúdo do § 2º determina que pessoas expostas a sistemas de reconhecimento de emoções ou a sistemas de categorização biométrica deverão ser claramente informadas sobre a utilização e o funcionamento do sistema no ambiente em que ocorrer a exposição. Caso se trate de pessoas vulneráveis, tais como crianças, adolescentes, idosos e pessoas com deficiência, os sistemas de IA serão desenvolvidos para que estas pessoas consigam entender o seu funcionamento e seus direitos em face dos agentes de Inteligência Artificial.
Tudo isso, para tornar realidade os princípios que o Projeto de Lei pretende estabelecer sobre o desenvolvimento, a implementação e o uso de sistemas de Inteligência Artificial no Brasil, descritos no art. 3º, em especial o constante do inc. VI, da transparência, explicabilidade, intelegibilidade e auditabilidade.
A tutela desse direito à compreensão dos sistemas de IA, encontra-se em sintonia com o direito de acesso consagrado no art. 9º da LGPD, uma vez que igualmente garante ao titular de dados obter informações relevantes sobre as operações de tratamento de seus dados pessoais. As mencionadas informações devem ser disponibilizadas de forma clara e satisfatória, acerca de, entre outros aspectos, a finalidade específica do tratamento, sua forma e duração.
Como se vê da “Análise Preliminar do PL 2338/2023”, publicada pela Autoridade Nacional de Proteção de Dados, o tema é de grande relevância:
Os recentes casos de investigação de aplicações baseadas em IA generativa (por exemplo, os grandes modelos de linguagem – large language models, como o ChatGPT) por autoridades de proteção de dados como a italiana, a espanhola e a canadense, já evidenciam a importância de se assegurar acesso a informações adequadas para o exercício de direitos do titular cujos dados pessoais são objeto de tratamento por tais sistemas de IA. A Rede Iberoamericana de Proteção de Dados também iniciou, em maio deste ano, uma ação coordenada para garantir a proteção de direitos e liberdades de indivíduos afetados pelo ChatGPT8.1
No sentido da análise da ANPD, o relatório final da Comissão de Juristas indica a importância de facultar o acesso do contratante aos meandros dos sistemas de IA, com vistas a transparência, mas que a explicabilidade não é tema simples, pois o direito a ser explicado para determinado funcionamento não é de todo simples, necessitando-se atentar para o segredo empresarial e as dificuldades de explicação técnica para leigos.
Nas audiências públicas que aconteceram no âmbito dos trabalhos da Comissão de Juristas, destacam algumas manifestações sobre o tema da explicabilidade. Ana Paula Bialer, defende que: “[…] explicabilidade não é necessariamente entender absolutamente todos os caminhos feitos pelo algoritmo”2. Parece pertinente este raciocínio, uma vez que a mera curiosidade não faz nascer o direito à explicabilidade, mas o prejuízo da pessoa que somente possa ser reparado mediante explicação 3.
Nina da Hora expôs que a explicabilidade não pode ser dirigida apenas a pessoas bem engajadas nas discussões de IA, mas que deve se voltar para a sociedade. Concorda-se, neste sentido, que a explicação deve ser acessível a todos o que dela precisem, não apenas aos que tem facilidade de compreensão em TI 4.
Ao mesmo tempo, parece impactante a manifestação de Paulo Rená, ao sugerir que: “[…] se você não consegue explicar porque é que a sua ferramenta comete uma discriminação, ela não pode ser oferecida para o público”5.
Por fim, o presente autor concorda com Gabrielle Sarlet que se manifesta no sentido de que o devido processo informacional seria uma ressignificação da ampla defesa e contraditório, de forma que a transparência seria um direito fundamental. Destacou, ainda, da necessidade de “medidas concretas” de explicabilidade, de interpretabilidade e de contestabilidade 6.
Uma saída interessante – e resumida – para a questão, talvez possa ser a sugestão de Virgílio Almeida que sugere “[…] estabelecer práticas para auditoria e regras para tornar os sistemas mais transparentes” 7.
Fácil perceber que não será tarefa fácil a concretização da disposição legal relativa à transparência por meio da explicabilidade, em especial porque a própria natureza dos sistemas de IA revelam grande complexidade algorítmica dificilmente compreensível pela pessoa leiga. Parece, no entanto, que não se fala tão somente em explicar, mas, sim, como o próprio art. 3º, VI, determina, a informação deverá ser transparente, porque explicável, intelegível e auditável.
Assim, aquele que se sentir prejudicado, fundamentadamente, nas situações do art. 7º e 8º do PL ora em discussão, terá a seu favor a possibilidade de exigir explicações, para a informação ser compreendida (inteligibilidade) e isso somente será possível se o sistema for auditável. Tudo isso constrói a ideia de transparência.
Sobre o problema que se tem levantado de que “abrir, expor, o sistema” por meio da explicabilidade geraria risco de segurança à empresa responsável pela IA ou revelaria seus segredos empresariais, trata-se de empreendimento que no próprio contexto do desenvolvimento e dos riscos do negócio.
Em outras palavras, se a empresa deseja se valer de ferramentas de Inteligência Artificial para alcançar seus objetivos de lucro, deve prever o resultado do uso e fazer acontecer a prevenção, pois o que prevalece no contexto do mercado e da sociedade são os direitos fundamentais das pessoas com quem se relaciona. O ter não pode existir em detrimento do ser. A atividade empresarial não pode ser favorecida em detrimento das pessoas e de seus dados pessoais que, repise-se, são direitos fundamentais descritos no art. 5º, inc. LXXIX, da Constituição Federal.
Decorrência lógica da proteção dos direitos associados à informação e à compreensão das decisões tomadas pela IA (art. 7º e 8º do PL 2338/2023), ou, se preferir, sua concretização e procedimentalização, estão nas Seções III e IV, dos art. 9º a 12, sob o título: “Do direito de contestar decisões e de solicitar intervenção humana” e, também, “Do direito à não-discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos.
Em todo esse contexto, pergunta que se reitera em diversos espaços, jurídicos ou não, sobre se a Inteligência Artificial deve ser objeto de regulação estatal ou se deve o mercado se autorregular, o presente autor entende que sim, tal regulação é indispensável, como forma de realização e efetivação de direitos fundamentais. Concorda-se, para responder a tal indagação, com os termos utilizados no Relatório Final da Comissão:
Assim, o peso da regulação é dinamicamente calibrado de acordo com os potenciais riscos do contexto de aplicação da tecnologia. Foram estabelecidas, de forma simétrica aos direitos, determinadas medidas gerais e específicas de governança para, respectivamente, sistemas de inteligência artificial com qualquer grau de risco e para os categorizados como de alto risco 8.
E tudo isso ficará mais fácil de ser implementado pelos entes regulados se houver conscientização da necessidade de se efetivamente – e não somente no papel – tratar de forma adequada os dados pessoais, em todas as relações, inclusive nas contratuais.
Metodologias facilitadoras – e porque não dizer obrigatórias – podem ser encontradas, por exemplo, nos programas de Governança e de Compliance 9, que serão adequados a auxiliar na estruturação de procedimentos de categorização de riscos descrita nos art. 13 a 18 do ora discutido PL, assim como de Governança elencados nos art. 19 a 21 e no art. 30. Diga-se, também, da necessidade de avaliação de impacto algorítmico, previsto nos art. 22 a 26, também do PL.
Por fim, considerando-se que o Código Civil é lei geral no que seja pertinente aos contratos, e que está em andamento os trabalhos da Comissão de Juristas incumbida de construir Projeto de Lei para sua revisão e atualização 10, parece razoável que os princípios aqui discutidos, em especial o da explicabilidade, possam ser nele inseridos, para fortalecer o conteúdo de confiabilidade e transparência dos contratos efetivados por meio eletrônico 11, em especial aqueles que tenham auxílio de sistemas de Inteligência Artificial.
1 Disponível aqui. Acesso em 27/10/2023.
2 Disponível aqui. Acesso em: 28/10/2023.
3 Op. cit. p. 109.
4 Op. cit. p. 113.
5 Op. cit. p. 115.
6 Op. cit. p. 115.
7 Op. cit. p. 115.
8 Disponível aqui, p. 11.
9 Sobre compliance digital em proteção de dados pessoais, leia mais em: SILVA, Alexandre Barbosa da; FRANÇA, Phillip Gil. Compliance digital em proteção de dados pessoais: a necessidade de humanização da regulação de dados nas instituições. In: Direito civil e tecnologia. Tomo II. Belo Horizonte: Fórum, 2021. p. 353-370.
10 Disponível aqui.
11 Para ler mais sobre Contratos Eletrônicos, por todos, indica-se: MARTINS, Guilherme Magalhães. Contratos eletrônicos de consumo. 4. ed. Barueri: Atlas, 2023.
Este artigo também foi publicado no site do Migalhas. Acesse-o clicando aqui.