fundo

XI Conferência do Fórum dos Presidentes dos Supremos Tribunais de Justiça dos Países e Territórios de Língua Portuguesa

27 Nov 2023

Não andarei longe da verdade se disser que a maior parte dos congressos, conferências e fóruns de discussão jurídica, realizados no passado mais recente, tiveram como tema central a inteligência artificial.

Embora a criação desta tecnologia remonte à década de 50 do século XX, os avanços dos últimos anos fizeram soar alguns alarmes quanto aos perigos que poderiam resultar da sua aplicação em algumas atividades.

Toda essa evolução conduziu a um natural interesse na discussão deste tema da IA, que encontrou maior enlevo quando se deu a conhecer ao mundo, em dezembro do ano passado, o ChatGPT, um sistema de IA generativa com capacidade para criar conteúdos de forma autónoma.

Não vou falar da tecnicidade das ferramentas da inteligência artificial, nem da forma como são fabricados os algoritmos, nem dos limites da sua aplicação (seja na atividade judiciária ou qualquer outra), nem, tampouco, das incidências possíveis ao nível do instituto da responsabilidade civil.

Sendo suficientemente conhecidos os benefícios do uso da IA na vida das sociedades modernas, vou apenas focar-me na repercussão negativa que a IA pode ter no âmbito dos direitos de personalidade.

E para iniciar essa reflexão, nada melhor do que recorrer a um caso concreto, ocorrido na Índia, relacionado com o setor audiovisual.

Anil Kapoor, ator indiano de 66 anos que integrou o elenco do filme “Quem Quer Ser Bilionário”, produzido em 2008 e premiado com oito óscares, propôs uma ação judicial de natureza inibitória por se ter apercebido da circulação, em plataformas digitais, de vários vídeos e emojis imitando a sua aparência, com recurso à IA.

O Supremo Tribunal de Justiça de Nova Deli deu provimento à sua pretensão, garantindo-lhe a proteção do seu nome, da sua imagem, da sua voz e de “outros atributos da sua personalidade”.

Situações idênticas a esta multiplicam-se nas redes sociais e em ambientes publicitários com grande à-vontade.

Por estarmos em solo brasileiro, refiro a recente recriação digital, através da inteligência artificial, da falecida cantora Elis Regina num anúncio de uma conhecida marca alemã de automóveis.

Caso que estará, segundo creio, pendente de avaliação pelo Conselho Nacional de Auto Regulamentação Publicitária e cujo desfecho poderá constituir um marco na tutela dos direitos de personalidade, designadamente do direito à imagem de pessoa falecida.

De facto, a reprodução artificial da imagem e da voz de atores e também de pessoas com notoriedade social e política tem sido usada pela tecnologia da inteligência artificial para efeitos comerciais, de puro entretenimento ou de produção de notícias falsas, com total indiferença pelos direitos subjetivos que, fundados na dignidade da pessoa humana, garantem o gozo e o respeito ao seu próprio ser, em todas as suas manifestações espirituais ou físicas.

Os dois casos que referi são, apenas, uma pequeníssima amostra dos inúmeros casos em que a IA generativa afronta os direitos de personalidade.

De entre estes direitos destacam-se o direito à vida, à integridade pessoal, ao trabalho, ao bom nome e reputação, à liberdade individual, à igualdade, à reserva da vida privada, à imagem, à honra, à proteção da saúde e à reserva sobre os dados pessoais.

Todos eles são, como referido, concretizações da dignidade da pessoa humana e encontram tutela na norma genérica do artigo 70º do CC português, na qual se estabelece que “a lei protege os indivíduos contra qualquer ofensa ilícita ou ameaça de ofensa à sua personalidade física ou moral”, acrescentando o n.º 2, que “independentemente da responsabilidade civil a que haja lugar, a pessoa ameaçada ou ofendida pode requerer as providências adequadas às circunstâncias de cada caso, com o fim de evitar a consumação da ameaça ou atenuar os efeitos da ofensa já cometida”.

Dado que o referido artigo 70º consagra uma cláusula geral de proteção, a norma permite conceder tutela a bens pessoais não tipificados, protegendo aspetos da personalidade cuja lesão ou ameaça de violação só com a evolução dos tempos assumam um significado ilícito.

Esta larga abrangência tutelar tem grande utilidade em épocas como a que vivemos em que as tecnologias atingem progressos nunca imagináveis.

A maior presença da tecnologia de IA na nossa vida, sem que dela nos apercebamos, como, por exemplo, nos serviços de reconhecimento facial, assistentes virtuais, análise de dados pessoais e tomadas de decisões automatizadas, incluindo a definição de perfis, tem efetivamente um elevado potencial de confronto com os direitos de personalidade.

Há algumas áreas mais sensíveis ou mais expostas a uma interferência danosa da IA.

As relações laborais e do consumo, a medicina computacional e a proteção dos dados pessoais são, reconhecidamente, alguns dos domínios mais afetados pelos riscos do uso da IA e da automação.

A utilização crescente do algoritmo nos vários domínios da relação de trabalho, nomeadamente na fase de seleção dos trabalhadores, na distribuição de tarefas, na monitorização e avaliação da prestação de trabalho, e na seleção dos trabalhadores a despedir, pode provocar situações de desigualdade ou discriminação originadas por fatores distintivos não diretamente relacionados com o tipo de atividade a prestar.

Particularmente no que concerne ao processo de seleção de candidatos a emprego, e como bem se avisa no Livro Verde sobre o Futuro do Trabalho, publicado em 22 de junho de 2021 pelo Governo de Portugal (página 79), essas situações de desigualdade ou discriminação podem basear-se em aspetos da vida privada do candidato, ou com as suas características pessoais, sociais e culturais, como sejam, o domicílio, a etnia, os gostos, o perfil financeiro, a religião, o cadastro criminal ou a orientação sexual.

Para que essas situações aconteçam basta que o programador do algoritmo, isto é, quem fornece ao algoritmo os dados que irão habilitá-lo à tomada de decisões, incorpore no algoritmo os seus preconceitos, consciente ou inconscientemente.

Perigos que se estendem às relações de consumo, com relevo para a atividade seguradora e financeira, marketing e publicidade, áreas em que os riscos do algoritmo que desenha o perfil do consumidor podem redundar quer num maior desequilíbrio entre este e o profissional, quer numa diminuição da autonomia e capacidade do consumidor para fazer escolhas informadas, quer, ainda, numa desvantagem de determinados indivíduos ou grupos, sem qualquer justificação (cfr. “Definição algorítmica de perfis e não discriminação dos consumidores”, de António Pinto Monteiro e Sandra Passinhas, em Revista de Legislação e Jurisprudência, Ano 1952, n.º 4041, Julho/Agosto de 2023, páginas 368 e seguintes).

No domínio da medicina, as principais preocupações já veiculadas pela Organização Mundial de Saúde a respeito do uso da IA dizem respeito ao processamento, armazenamento e uso antiético dos dados pessoais de saúde.

Como se sabe, os dados de saúde pertencem aos pacientes e a sua divulgação ou cedência sem consentimento podem gerar grave prejuízo à reserva da intimidade da vida privada.

Mas existem, também, riscos não negligenciáveis para a vida ou saúde do paciente decorrentes da aplicação da IA a processos de diagnóstico, triagem de doenças e atendimento clínico.

Tudo a exigir protocolos apertados de segurança e de controlo da qualidade dos serviços de saúde.

Também o incessante aumento de dados pessoais recolhidos pelos sistemas de IA originam preocupações sobre a privacidade e proteção de dados.

As novas tecnologias associadas a sistemas de IA permitem às empresas privadas e às entidades públicas a utilização de dados pessoais numa escala sem precedentes no exercício das suas atividades (cfr. Considerando 6 do Regulamento (EU) 2016/679, de 27 de abril de 2016 – Regulamento Geral sobre a Proteção de Dados).

Como se refere no Considerando 75 do RGPD, o risco para os direitos e liberdades das pessoas singulares poderá resultar de operações de tratamento de dados pessoais suscetíveis de causar danos físicos, materiais ou imateriais, em especial quando o tratamento possa dar origem à discriminação, à usurpação ou roubo de identidade, a perdas financeiras, prejuízos para a reputação ou perdas de confidencialidade de dados pessoais protegidos por sigilo profissional (…).

Estes riscos são exponenciados pela maior capacidade de a IA proceder à reidentificação dos titulares dos dados pessoais, a partir de dados anonimizados, o que constitui sério problema a exigir maior estudo e reflexão no âmbito da proteção de dados.

Estas são apenas algumas das áreas em que a IA poderá ocasionar grave violação dos direitos de personalidade, mas outras haverá.

Em Portugal, não existe ainda jurisprudência sobre a afetação dos direitos de personalidade pelo uso de ferramentas de inteligência artificial.

É também inexistente jurisprudência do Tribunal de Justiça da União Europeia e do Tribunal Europeu dos Direitos Humanos sobre esta matéria.

O que tem havido, no âmbito da União Europeia, é uma grande preocupação no tocante à regulamentação do uso da inteligência artificial, sendo já longa (cerca de 5 anos) a reflexão sobre essa matéria.

Finalmente, está para breve a consagração normativa dos princípios que ordenarão uma IA confiável e segura, através de um Regulamento para a IA no espaço da União.

A proposta de Regulamento do Parlamento e do Conselho Europeu, apresentada em abril de 2021 e integrada na estratégia para o mercado único digital da União Europeia, classifica os riscos que os sistemas de IA comportam para os usuários, em cada uma das aplicações possíveis, graduando-os nos seguintes níveis: inaceitável, elevado, limitado e mínimo.

No dia 14 de junho do corrente ano, o Parlamento Europeu adotou, a sua posição de negociação sob e o dito Regulamento, tendo sido aprovadas as alterações à Proposta de Regulamento.

As regras assegurarão que a IA desenvolvida e utilizada na Europa respeita plenamente os direitos e valores da UE, mediante exigências de supervisão humana, segurança, privacidade, transparência, não discriminação e bem-estar social e ambiental.

Será proibida a utilização da IA para efeitos de vigilância biométrica, reconhecimento de emoções e policiamento preditivo (modelos usados, como sabemos, na República Popular da China), prevendo-se, também, que os sistemas de IA generativa, como o ChatGPT, terão de assegurar salvaguardas contra a produção de conteúdos ilegais e cumprir os requisitos de transparência, revelando, nomeadamente, que os conteúdos foram gerados por IA, o que ajudará a distinguir as técnicas de manipulação de imagens, conhecidas como deepfake, das imagens reais.

Quanto a este último aspeto é interessante a ideia, que já está a ser trabalhada por algumas empresas dos EUA, de que o conteúdo gerado artificialmente terá de ter uma marca de água, para mitigar os riscos de confusão sobre a autoria dos conteúdos.

Ainda nos EUA, um dos países onde a IA conhece maior implantação, o Presidente norte-americano Joe Biden ordenou, muito recentemente, que se elaborassem regras para o desenvolvimento e aplicação de tecnologias de Inteligência Artificial, estabelecendo-se critérios que, por um lado, garantam a segurança e privacidade dos cidadãos e que, por outro lado, preservem os seus direitos e a sua proteção nas áreas da saúde, do mercado laboral e da inovação e concorrência.

Deixem-me voltar um pouco atrás para chamar a atenção de um aspeto que considero muito importante e que consta do Considerando 77 da Proposta de Regulamento da IA da EU.

Prevê-se aí que cada Estado-Membro deve designar uma autoridade nacional de controlo para efeitos de supervisão da aplicação e execução do regulamento.

O Considerando 80-A, exprimindo preocupação quanto à necessidade de assegurar um nível forte e generalizado de proteção da saúde, da segurança e dos direitos fundamentais das pessoas singulares contra os riscos que os sistemas de IA podem representar para esses direitos nos vários Estados- -Membros, permite que as autoridades nacionais de controlo possam realizar investigações conjuntas, quando uma autoridade nacional de controlo tiver motivos suficientes para crer que uma violação ao regulamento constitui uma violação generalizada ao nível da União, ou quando o sistema de IA ou o modelo de base representar um risco que afete ou seja suscetível de afetar, pelo menos, 45 milhões de pessoas em mais do que um Estado-Membro.

Excelências:

O avanço da inteligência artificial é imparável.

Teremos de saber compatibilizar o seu uso na sociedade contemporânea com a efetiva proteção dos direitos fundamentais da pessoa humana.

Este é o tempo da prudência, da regulação e da monitorização constante.

Há, no entanto, um princípio inalienável: o de que é o ser humano quem dirige, comanda e decide o seu futuro e o futuro das nações.

 

Brasília, 27 de novembro de 2023

Henrique Araújo, Presidente do Supremo Tribunal de Justiça

 

voltar
Uilização de Cookies

A SUPREMO TRIBUNAL DE JUSTIÇA pode utilizar cookies para memorizar os seus dados de início de sessão, recolher estatísticas para otimizar a funcionalidade do site e para realizar ações de marketing com base nos seus interesses.

Estes cookies são essenciais para fornecer serviços disponíveis no nosso site e permitir que possa usar determinados recursos no nosso site.
Estes cookies são usados ​​para fornecer uma experiência mais personalizada no nosso site e para lembrar as escolhas que faz ao usar o nosso site.
Estes cookies são usados ​​para coletar informações para analisar o tráfego no nosso site e entender como é que os visitantes estão a usar o nosso site.