NOTÍCIA
Alexandre Le Voci Sayad aborda os desafios éticos da IA e o cenário da regulação no Brasil, União Europeia e EUA
Publicado em 11/07/2024
Em meio à avalanche de ações para compreender e recepcionar a inteligência artificial generativa no dia a dia das instituições de ensino, as incertezas são muitas. O ambiente disruptivo prevalece, requer ponderação e o acompanhamento dos seus desdobramentos, como as muitas discussões éticas e que tangenciam a regulação ou as vantagens da predição para a gestão, os prós e contras do ChatGPT.
A pergunta “onde isso vai parar?” já tem um esboço de resposta. “O hype vai cair porque faltam dados de qualidade neste momento para treinar os sistemas. Os dados que estão disponíveis estão caros, viraram commodities”, afirma o jornalista, escritor e educador Alexandre Le Voci Sayad, a partir de pesquisa da Gartner, consultoria de tendências tecnológicas americana. “A IA generativa vai descer um pouco para depois atingir um platô de estabilidade.”
Sayad é consultor em educação midiática para a sede da Unesco, em Paris e em Montevidéu, autor de Inteligência Artificial e Pensamento Crítico, publicado em 2023, resultado de seu mestrado em Inteligência Artificial e Ética pela PUC-SP. É especialista em negócios digitais pela Universidade Califórnia – Berkeley e doutorando em políticas de lifelong learning e IA na Universidade Autônoma de Barcelona (UAB – Espanha).
Nesta entrevista, Sayad comenta o cenário atual da regulação da IA, “um termo que se tornará difícil de mencionar sem especificar”, pois se desdobrou em famílias, funções e tecnologias. Aborda os desafios éticos que se apresentam e a necessidade cada vez mais urgente da educação midiática, um campo de estudo antes ancorado na abordagem crítica das mídias tradicionais e que agora abarca as inteligências artificiais, sobretudo por conta de seu uso no fenômeno da desinformação.
Podemos começar com outra pergunta. Por que os governos querem regular a IA? Regula-ção é uma balança. Na esfera pública, regular IA é garantir que o país tenha soberania, pois a IA é um novo campo de desenvolvimento econômico; garantir que o país tenha direito sobre os dados pessoais dos seus cidadãos, fato que diz respeito à IA como soft power. É, também, para garantir os direitos humanos dos seus cidadãos. Essa é a balança, e a regulação trata de como colocar na balança o desenvolvimento e a garantia de direitos.
Quando pensamos no ambiente privado, comunitário, público-privado também temos de criar a balança. De um lado, quais os ganhos do uso de dados para a gestão de IA e como protegemos os dados pessoais e sensíveis dos usuários? Já no ensino e aprendizagem, é como a IA ajuda a personalizar, melhorar, facilitar, incrementar a aprendizagem e o desenvolvimento de habilidades. Por outro lado, como garantir o direito dos alunos enquanto cidadãos e os seus direitos humanos. Há a LGPD – Lei Geral de Proteção de Dados, que é muito boa, mas o impacto da IA vai além da proteção de dados.
As empresas têm feito códigos de ética internos e comitês de ética para regular uma série de questões. A questão dos dados é uma, talvez a mais simples, porque há a LGPD funcionando, é um bom começo, mas ela não dá conta.
A lei que regula a IA virou um jabuti, como tudo. O que acontece é curioso. A União Europeia já aprovou a sua regulação e nós nos baseamos no modelo europeu, mas o modelo americano está se mostrando mais diligente neste momento. Os EUA estão pondo dinheiro para que os órgãos reguladores tenham seus departamentos de regulação ética.
A IA tem impacto em muitas áreas. É complicado criar um órgão regulador geral como a Anatel, por exemplo. No Brasil, seria bom o Inep no papel de órgão regulador da IA na educação. No Ministério do Meio Ambiente, o Ibama pode ter um departamento. Mas isso vai um pouco na contramão do que realmente estamos vendo no Brasil, que é uma espécie de concentração da regulação.
As discussões têm girado em torno também da definição do que é a IA. A economista e professora da PUCSP Dora Kaufman a define como “um modelo estatístico de probabilidade”. É um modelo que trabalha com estatística, reconhecendo seus padrões, utilizando esse volume absurdo de dados para prever cenários futuros.
Há contradições entre pesquisadores, é uma linha embaçada entre o que é programação como a conhecemos e o que é a IA. Dora Kaufman diz que considera prematuro o debate da regulação da IA e tendo a considerar isso também. Precisava queimar um pouco mais de neurônio, errando, vendo quais são os reais impactos, pois estamos falando da primeira infância da IA. Qualquer coisa que regulamos hoje daqui a uma semana estará ultrapassada. E estamos lidando com burocratas que mal sabem o que é e-mail.
O viés algoritmo é um tema polêmico, que necessita de regulação. O algoritmo, como qualquer tecnologia, não é neutro, não dará resposta neutra porque não existe resposta neutra. Há três maneiras de enviesar os algoritmos, duas são compreensíveis e a terceira é bem complexa.
A primeira é a seguinte: uma IA que funciona com uma base de dados não diversa não dará um resultado diverso. Por exemplo, se a base de dados de um treinamento for com pessoas nórdicas, jamais a resposta será uma pessoa negra. A qualidade da base de dados de treinamento da IA está diretamente ligada à qualidade de resultados. No meu livro Inteligência Artificial e Pensamento Crítico escrevi sobre o impacto disso. Por exemplo, o mecanismo de IA embutido nos buscadores como Google Scholar e outros acadêmicos têm de ser treinados com base de pesquisas de diversas regiões, ou teremos uma busca acadêmica cada vez mais restrita. Esse é um ponto de enviesamento.
O segundo, mais conhecido, é que os times de desenvolvedores de IA refletem no algoritmo seus próprios vieses. Por isso uma das grandes ações para garantir um algoritmo saudável é ter um time diverso – mulheres, negros, pessoas trans –, e times multidisciplinares.
O terceiro é mais técnico, o viés intrínseco à técnica, à própria técnica de aprendizagem profunda. Como a IA tem várias camadas de neurônios artificiais e vários pesos, conforme se solicita o pedido, a IA vai criando relações entre os diversos pesos e critérios, entre as camadas de neurônios artificiais. Ocorre, por exemplo, a tal alucinação que o ChatGPT tem, que acontece porque as relações criadas entre os neurônios vão se tornando mais complexas. E o próprio desenvolvedor não consegue, muitas vezes, encontrar o viés dentro do sistema. É difícil corrigir esse viés porque o algoritmo ficou viciado em algumas coisas, vai criando peso e traz alucinações e outros tipos de defeito. A solução é matar esse algoritmo e começar outro.
É outro determinante que vale a pena ser debatido. Tratam isso com a maior naturalidade, eu não consigo. Onde vão parar os rostos das pessoas? Não à toa, por trás da proibição do Tik Tok nos EUA, está a preocupação com a passagem de dados sensíveis dos usuários americanos para a China. Esses dados são sobretudo rostos. Das dez cidades com mais câmaras públicas de segurança no mundo, nove estão na China. A outra é Londres, que foi quem começou com o sistema de reconhecimento facial, na década de 90, com algoritmos mais simples.
O que acontece é que a China tem milhões de rostos arquivados e consegue fazer um acompanhamento em tempo real de seus cidadãos. É o chamado capitalismo de vigilância, em que as empresas e o governo vigiam os seus cidadãos e usuários o tempo todo. A União Europeia propõe o banimento do reconhecimento facial nos próximos cinco anos. O lobby das empresas será enorme, duvido que sobreviva no tempo. Há muitas empresas de tecnologia trabalhando com o reconhecimento facial.
Chega em duas grandes áreas – gestão e ensino-aprendizagem – de maneiras diferentes. Vamos começar pela gestão. Existem várias famílias de IA e a generativa é uma das famílias. Por exemplo, convivemos com algoritmos de recomendação há muito tempo, e eles são uma família de IA anterior à generativa.
Um bom trabalho com gestão de dados possibilita que a empresa gire de outra maneira. É possível prospectar melhor o aluno, saber como funcionam os ciclos de inadimplência, mapear geograficamente onde estão os futuros melhores alunos. Por exemplo, uma IES em São Paulo pode saber em qual bairro prospectar mais alunos; cruza os dados de IA da sua instituição com os dados de crescimento da parcela de alunos da idade que interessa, do rendimento econômico que interessa, do perfil. Todos esses dados os algoritmos cruzam e conseguem dar a ideia de que no ano que vem é melhor a IES apostar em alunos da zona norte. Isso se chama microtarget, mas com a IA ganhou outra camada, a chamada predição. Com tantos dados é capaz de prever cenários futuros e isso é muito importante para a gestão. Há uma infinidade de aplicações da IA na parte de gestão.
Há uma máxima na área de business que diz que toda empresa é de dados hoje em dia. Se a pessoa abrir uma lanchonete, provavelmente, daqui a cinco anos, valerá mais pelo que ela tem de dados dos fregueses do que pelo próprio poder de fazer um sanduíche. Os gestores sabem que quando se vende uma IES, o valor dos dados trabalhados e coletados lá valem muito, valerão cada vez mais. Então, precisamos cuidar bem dos dados.
A IA tem o potencial personalizador da aprendizagem, é uma excelente indexadora e assistente de produção intelectual acadêmica, possível potencializadora de simulações em realidade virtual e aumentada. Há um uso cada vez maior da IA na educação e pode ser acoplada aos assistentes de busca em banco de dados, é um excelente buscador de referências e pesquisas.
Numa pesquisa publicada na Nature há quase dois anos, “Perception, performance, and detectability of conversational artificial intelligence across 32 university courses”, alunos indianos falaram que, na faculdade, o ChatGPT ajudou a diminuir as diferenças entre classes sociais. Os alunos de classe mais baixa puderam recuperar a aprendizagem de línguas estrangeiras. Ou seja, o ChatGPT auxiliou a acelerar a aprendizagem dos alunos que não tinham domínio de outras línguas.
Todos os cidadãos precisam de educação midiática, que deve abranger os usos da IA. A educação midiática abrangia antes o desenvolvimento de habilidades para ler, analisar, criticar, produzir comunicação em massa – rádio, TV, revista, jornal –, veículos que continuam ativos, mas hoje o grande responsável pelo fenômeno da desinformação é a IA. Então a educação midiática faz pontes com o que é chamado de letramento algorítmico, que é um novo termo, mas gosto de colocar como incumbência da educação midiática. O que é a IA? Como funciona? Como opera? Como evitar os erros? A ideia é tirar um pouco a IA dessa caixa mágica que fica na cabeça das pessoas, muito vinculada à ficção científica, aos filmes e à literatura.
Há um movimento forte no mundo inteiro para que a alfabetização midiática seja parte dos currículos escolares. Tenho uma posição junto à Unesco e trabalho por isso. Se a pessoa já vem de um processo de leitura crítica, chega melhor na academia, mas é uma realidade muito distante. Algum letramento algorítmico para os professores é importante. A concepção de educação midiática é um processo de aprendizagem para a vida toda. É fundamental para todo mundo, inclusive para as tias que estão no WhatsApp.
Na minha visão, lifelong learning é a aprendizagem cultural, repertorial e cidadã na qual vivemos mergulhados pela vida toda, para além dos ciclos formais. O lifelong learning não é educação formal nem educação não formal. É uma educação informal, é uma terceira categoria. Ele se situa na educação informal e se aproxima da não formal. Hoje em dia, a necessidade de se atualizar ao longo de toda a vida não é só para médico, advogado ou operador de máquina de indústria. É para a sobrevivência. Para pagar uma conta no banco precisamos ter habilidades contemporâneas.
A União Europeia tem hoje fundos, treinamentos e debates sobre como deve ser a aprendizagem para a vida toda. Basicamente, essa aprendizagem se dá pelas mídias. Hoje aprendemos na internet, que virou um campo com muita IA, muitos bots, então, o mentor de aprendizagem permanente muitas vezes é um algoritmo. De certa maneira, o aprendizado das habilidades digitais precisa estar presente nas políticas públicas de lifelong learning para a pessoa poder furar suas bolhas, para ter autonomia nas suas pesquisas. Os governos precisam se preparar para educar toda uma geração para a IA, para gerar autonomia nessa aprendizagem constante.
O lifelong learning é uma necessidade e requer capacitação. Por outro lado, a educação formal – básica e superior – tem um papel que o antecede. A escola e a universidade são as bússolas para que os egressos possam seguir sua aprendizagem. Cada vez mais tenho estimulado que as escolas se tornem referências para além de seus muros. Que as universidades possam servir de bússola, também oferecendo cursos, mas sobretudo que se tornem referência de informação confiável para o lifelong learning. Esse papel ainda é pouco enxergado pelos gestores. Apontar os padrões de qualidade das coisas claramente, com comissões de ética, apontando direções. Já que a ambição de toda IES é fazer uma ponte com o mercado, é preciso se tornar referência. Nas megauniversidades é sempre assim, qualquer clube de alumni das grandes universidades é ativo, especialmente fora do país.