O desenvolvimento das Inteligências Artificiais (IA) parece acontecer em uma velocidade exponencial, mas o Direito pode incorporar essas mudanças, defende Antonio Pele, professor de Direito da PUC-Rio e, atualmente, professor convidado da École des Hautes Etudes en Sciences Sociales, de Paris . Autor de A Dignidade Humana: suas origens no pensamento clássico, o pesquisador defende a criação de “santuários livres de IA” e a regulamentação dessas ferramentas. Pele conversou com a VEJA sobre o impacto das inteligências artificiais no nosso cotidiano, as possibilidades de regulamentação dessas ferramentas, o futuro do trabalho e o efeito das inteligências artificiais generativas na indústria criativa. O especialista defende que a regulamentação dessas tecnologias é não só possível, como necessária e urgente. “Acredito que somos muito menos ingênuos agora do que nos primeiros tempos da Internet e das redes sociais”, sintetiza.
Na sua opinião, as inteligências artificiais podem trazer problemas tão complexos quanto as redes sociais? Vai levar tanto tempo para a regulamentação das primeiras quanto levou para se começar a discutir a regulamentação das redes ou aprendemos algo?
Quando as redes sociais surgiram, muitos viram nelas o nascimento de uma sociedade digital e global, superando a burocracia da autoridade pública e realizando o sonho da democracia direta. Quinze anos depois, o oposto aconteceu. Sem negar certos avanços, hoje prevalecem a sobrecarga de informações (internet, redes sociais, e-mails), a dependência das redes sociais, o agravamento da polarização política, a vigilância permanente de nossos comportamentos e, acima de tudo, o monopólio cada vez mais poderoso das big techs. No caso da inteligência artificial, acredito que somos muito menos ingênuos do que nos primeiros tempos da Internet e das redes sociais. A prova disso é o fato de já existirem propostas de regulamentação.
Qual a importância de se discutir a regulamentação das inteligências artificiais agora? Com a velocidade que essas tecnologias se modificam não corremos o risco das leis e protocolos se tornarem ultrapassados? Como evitar que isso aconteça?
O desenvolvimento da IA pode parecer ter uma velocidade exponencial, mas o Direito pode incorporar essas mudanças. A proposta europeia para a regulamentação das IA’s, por exemplo, já incorporou um marco regulatório para a IA generativa e os chamados modelos fundacionais. Ou seja, o Direito regulatório é sim capaz de responder de forma eficaz aos desafios tecnológicos de nossos tempos. O relevante é procurar um equilíbrio entre a proteção dos usuários e o estímulo à livre iniciativa empresarial nesse mercado. Além disso, a regulamentação da IA é fundamental do ponto de vista geopolítico para consolidar o que eu chamo “soberania algorítmica”. Neste sentido, a regulamentação deve implicar investimentos financeiros e humanos para que um país não dependa exclusivamente de tecnologias de outras potências. A soberania algorítmica é uma tentativa de garantir aos Estados o acesso à riqueza resultante da IA. No entanto, esse tipo de soberania só pode emergir por meio de uma regulamentação efetiva e pragmática.
Há um certo receio de que as inteligências artificiais possam substituir, em alguma medida, o trabalho humano. Qual o maior impacto que as inteligências artificiais podem ter sobre a vida cotidiana?
A população economicamente ativa no mundo hoje chega a 3,5 bilhões de pessoas. A IA poderia substituir aproximadamente 300 milhões de postos de trabalho. Cerca de 25% das tarefas executadas por humanos podem vir a ser automatizadas pelo uso de IA. As profissões administrativas e jurídicas seriam as mais expostas, mas com alguns cuidados. Por um lado, a IA permitirá acompanhar, em vez de substituir, certas atividades. Por outro, nem todos os países são afetados da mesma maneira. Em países com elevado rendimento, 5,5% do emprego total pode vir a ser afetado pela automatização da IA. Em países com baixo rendimento (como o Brasil), estes efeitos chegam a apenas 0,4% dos empregos.
Na nossa vida cotidiana, vejo a IA como uma espécie de assistente pessoal que nos permitirá realizar determinadas tarefas. A nossa competitividade aumentará exponencialmente, mas apenas os indivíduos e organizações que dispõem de recursos para dominar esses dispositivos poderão tirar proveito deles.
Como os “santuários livres de IA” que você defende podem funcionar de forma prática e de que forma eles nos protegeriam dos malefícios dessas ferramentas? Aliás, quais seriam os principais malefícios da globalização dessas tecnologias?
Há um consenso científico internacional que demonstra claramente uma atrofia de nossas capacidades intelectuais e um aumento dos riscos à saúde mental devido à superexposição digital. Os jovens brasileiros gastam em média 9 horas por dia com o celular. Vários países adotaram medidas para limitar esse uso. A China limita a utilização do celular a 2 horas por dia para os adolescentes com idades entre os 16 e os 18 anos. Esses países compreenderam que para se manterem economicamente competitivos, as capacidades cognitivas das gerações futuras devem ser protegidas da superexposição digital.
A ideia de criar santuários ou espaços livres de IA segue essa mesma lógica. Surge da identificação de um perigo muito específico, que eu chamo de “preguiça cognitiva”. Os “santuários sem IA” implicam na proibição ou utilização restrita de IA’s em áreas específicas, como as salas de aula ou espaços públicos. Elas também devem ser limitadas em certas atividades, como em seleções de emprego. Isso porque a IA favorece certos candidatos e não é capaz de identificar outros talentos. Por fim, defendo o direito de optar por não seguir decisões geradas por IA. Este direito implica em exigir que as decisões que nos afetam sejam feitas única e exclusivamente por uma pessoa humana. Ou seja, exigir que uma decisão judicial seja proferida por um juiz de carne e osso, que um diagnóstico seja realizado por um médico ou que nossa jornada de trabalho seja protegida de qualquer interferência oriunda de um dispositivo de IA.
As discussões sobre IA são particularmente sensíveis em alguns debates, podemos citar aqui as discussões sobre a produção artística, que pautou boa parte da greve de Hollywood e que pode, a longo prazo, modificar a forma como bens culturais são produzidos e consumidos. Você acha que essas preocupações são realistas?
A greve e o acordo alcançado entre a WGA e os estúdios de Hollywood prefiguram, sem dúvida, batalhas trabalhistas que acontecerão em outros setores, sejam eles criativos ou não. O que estava em causa era a possibilidade dos estúdios poderem impor a IA aos autores, sem que estes tivessem a possibilidade de se opor, relegando o seu trabalho ao papel de meros revisores de roteiros produzidos pela IA generativa. Graças à greve, a WGA conseguiu reverter a relação de forças. A IA pode ser utilizada para escrever roteiros, mas será uma ferramenta à disposição dos autores e não um sistema que lhes é imposto. Acredito que este ponto será central para todas as futuras negociações nas demais indústrias, criativas e outras.
Outro aspecto da IA na indústria criativa é o fato dela se alimentar de dados derivados da pilhagem de obras artísticas existentes, em clara violação aos direitos dos autores. Cada vez mais ações coletivas devem ser intentadas contra as empresas de “AI-art” com o fim de favorecer uma retribuição econômica para o trabalho desses criadores.
Em algumas áreas, essas discussões ganham contornos ainda mais alarmantes. Na segurança pública, por exemplo, se discute a adoção ou não de inteligências artificiais em sistemas de reconhecimento facial. Já na medicina, uma questão sensível é o impacto do uso de inteligências artificiais na qualidade dos diagnósticos e, sobretudo, na proteção de dados dos pacientes e no sigilo médico. Como as discussões de regulamentação podem trazer novas perspectivas para o debate e como isso ajudaria a proteger as pessoas nos cenários citados?
No que diz respeito à aplicação da IA para o reconhecimento facial, todas as propostas de regulamentação insistem que não deve ser feito. Também não poderá ser usada para a manipulação cognitivo-comportamental dos indivíduos, nem para classificar as pessoas com base no comportamento. No domínio da medicina, a utilização da IA pode ser problemática, porque existe uma camada de opacidade (em inglês se fala de “Black Box AI”) que cobre as razões pelas quais uma IA pode tomar tal ou tal decisão ou fazer tal diagnóstico. Isso pode gerar um conflito com a necessidade de transparência e o chamado direito à explicação que um paciente pode exigir. Seguramente a Lei Geral de Proteção de Dados tem um papel relevante nesse âmbito, mas outros atores, como a Agência Nacional de Vigilância Sanitária deverão definir a amplitude do exercício do direito à explicação na saúde, assim como o nível de proteção dos dados dos pacientes. Será uma questão de trade-off. Poderemos consentir diagnósticos eficientes e rápidos em troca de mais opacidade na tomada de decisão? O relevante será sempre tentar preservar a capacidade de escolha de cada um.