Utilizamos cookies para ajudar você a navegar com eficiência e executar certas funções. Você encontrará informações detalhadas sobre todos os cookies sob cada categoria de consentimento abaixo.
Os cookies que são classificados com a marcação “Necessário” são armazenados em seu navegador, pois são essenciais para possibilitar o uso de funcionalidades básicas do site....
Os cookies necessários são cruciais para as funções básicas do site e o site não funcionará como pretendido sem eles. Esses cookies não armazenam nenhum dado pessoalmente identificável.
Cookies funcionais ajudam a executar certas funcionalidades, como compartilhar o conteúdo do site em plataformas de mídia social, coletar feedbacks e outros recursos de terceiros.
Cookies analíticos são usados para entender como os visitantes interagem com o site. Esses cookies ajudam a fornecer informações sobre métricas o número de visitantes, taxa de rejeição, fonte de tráfego, etc.
Os cookies de desempenho são usados para entender e analisar os principais índices de desempenho do site, o que ajuda a oferecer uma melhor experiência do usuário para os visitantes.
Os cookies de anúncios são usados para entregar aos visitantes anúncios personalizados com base nas páginas que visitaram antes e analisar a eficácia da campanha publicitária.
NOTÍCIA
Parlamentares e instituições de ensino superior estão às voltas com as formas de legislar e regulamentar a inteligência artificial. A passos lentos.
Publicado em 21/02/2025
Numa hipotética corrida entre a evolução tecnológica e a das leis de uma mesma sociedade é pouco provável que haja dúvida sobre qual das duas chegaria na frente. Até porque o impacto das tecnologias no convívio humano é motivador de sua regulação em termos legais. No entanto, esta afirmação que parece tão óbvia pode revelar um novo problema: a obsolescência das leis antes mesmo de sua aprovação.
Talvez isso já esteja até acontecendo. Mas a consciência geral de que a inteligência artificial pode mudar de forma radical ações e relações sociais, sensação que se tornou exponencial após a Open AI trazer ao mercado o ChatGPT no final de 2022, fez acender o alerta. É preciso regulamentar os usos das ferramentas de IA, para identificar os perigos e os dilemas éticos de que podem ser portadoras e, sobretudo, responsabilizar desenvolvedores, instituições e cidadãos sobre os usos que fizerem dela. Se possível, estabelecendo princípios mais gerais, e não regrinhas facilmente perecíveis.
No âmbito do Poder Legislativo, o Senado aprovou em 12 de dezembro de 2024 um substitutivo ao Projeto de Lei 2338/2023, de autoria do então presidente da casa, Rodrigo Pacheco (PSD), passando a questão para a análise da Câmara dos Deputados. Nas instituições de ensino superior privado, o ritmo de formulação de políticas e regulação institucional também é lento, por diversos motivos. Em alguns casos, por desconhecimento da tecnologia. Em outros, por deslumbramento com suas possibilidades, sem a devida reflexão sobre possíveis consequências.
No geral, como revela pesquisa realizada pela FGV Direito/SP e por seu Hub de Inovação Pedagógica, com apoio do Semesp e da Associação Ibero-americana de Faculdades e Escolas de Direito, as respostas institucionais são mais vagarosas que nos Estados Unidos. Em survey de 2024, realizado pela Hanover Research para a Inside Higher Ed, em que foram ouvidos 380 gestores de universidades e colleges americanos, 18% já publicaram políticas de governança para o uso de IA em atividades pedagógicas e pesquisas. No Brasil, das 56 IES ouvidas no levantamento, apenas 4,8% já formalizaram e apresentaram suas políticas. Enquanto aqui 50% dos entrevistados disseram que suas instituições estão desenvolvendo os seus termos de uso, entre as norte-americanas esse percentual foi de 59%. Lá, os representantes de instituições que não estão desenvolvendo políticas são 22%, contra 27,2% daqui.
A institucionalização dessas políticas é de suma importância na área da educação, pois o substitutivo do senador Eduardo Gomes (PL-TO), assim como o projeto original, prevê a utilização da regulação por risco. Isso quer dizer que quanto maior a possibilidade de se afetarem ou infringirem direitos individuais ou coletivos (como à privacidade, por exemplo), maiores são as responsabilidades legais de quem ofertar ou utilizar as ferramentas de IA. No Brasil, foram definidos dois níveis, a IA de alto risco – em que se enquadram muitas questões ligadas à educação – e de risco excessivo, que torna o uso inviável. Assim como no caso da LGPD, a Lei Geral de Proteção de Dados, o Brasil está se baseando nas normas instituídas pela Comunidade Europeia. Lá, porém, utilizam-se quatro níveis de risco: inaceitável, elevado, limitado e mínimo.
O levantamento feito pela FGV Direito identifica três grandes vertentes de utilização da IA no ensino superior: administrativa (câmeras de segurança, varredura das redes sociais para ações de marketing, análises de adimplência são exemplos); pedagógica (atividades de ensino ou para estudantes) e pesquisa e publicações (tratamento de texto por processamento natural de linguagem, análise de dados em grande escala etc.).
Em apresentação feita ao Conselho Nacional de Educação em novembro último, juntando dados da pesquisa nacional com uma perspectiva internacional recolhida a partir da pesquisa da Hanover e outros estudos mundiais, ficou caracterizado que as iniciativas de uso da IA, em sua maioria, são individuais. Ou seja, professores, pesquisadores ou administradores utilizam ferramentas para otimizar sua produção. Até julho de 2023, apenas 30 das 500 principais instituições do ranking de Shangai já tinham documentos com suas premissas.
“Deve-se regular não a tecnologia, mas seus usos”, defende Marina Feferbaum, da FGV Direito (Foto: Arquivo Ensino Superior)
“Os números da pesquisa junto ao Semesp ainda são pequenos. Mas acreditamos que o perfil de uso é parecido com o dos Estados Unidos. Lá, sete de cada dez estudantes usam ferramentas de IA para os estudos. Aqui como lá há uma grande demanda por parte de professores para que sejam ministrados cursos ou treinamentos com as ferramentas. Temos o grande desafio de definir quais usos faremos e quem terá acesso a quê”, diz Marina Feferbaum, doutora em Direitos Humanos e coordenadora do Centro de Ensino e Pesquisas em Inovação da FGV Direito.
Para a pesquisadora, os riscos inerentes ao uso da tecnologia são transversais, perpassando as instituições como um todo. “E como a tecnologia tem uma alta velocidade de mudança, os riscos de uso também podem se modificar rápido. Por esse motivo, o processo de regulação precisa ter um grau de abertura para regular não a tecnologia em si, mas seus usos, com a consciência de que a supervisão é sempre necessária.”
Agência e supervisão humanas compõem o conjunto de princípios que devem pautar a regulação, ao lado de responsabilização, clareza, transparência e mecanismos de governança, segundo o resumo dos principais pontos levantados pela FGV por meio da análise dos documentos internacionais.
A proposta inicial do Projeto de Lei para a IA já listava deveres institucionais para o controle dos riscos implicados. Entre eles, mencionava: avaliação de impacto algorítmico periódico; medidas de governança do sistema e transparência; controle em tempo real; supervisão humana, diversidade nas equipes.
Entre as questões éticas com consequências jurídicas, o trabalho da FGV aponta algumas de mais fácil identificação, como desinformação, plágio e invasão de dados pessoais e outros que deverão requerer filtros mais sofisticados. Entre eles, vieses e reprodução de discriminações, dependência tecnológica e conexão humana e desigualdade de uso e acesso. Esta última questão pode ter grande impacto no ensino superior para quem não tiver muita capacidade de investimento.
Uma das instituições que já aprovaram normativas está a PUC do Paraná, cujas “Diretrizes para uso da Inteligência Artificial” vigoram desde o início do 2º semestre de 2024, contando com ampla divulgação interna. O documento foi elaborado pelo Creare, o Centro de Ensino e Aprendizagem, vinculado à Pró-Reitoria de Desenvolvimento Educacional da instituição. Segundo Elisângela Ferreti Manffra, ex-coordenadora do Centro, em 2023, após o surto inicial de uso do ChatGPT e o boom de IA generativa, foi criado um observatório, coordenado por ela, com dois núcleos distintos.
“Não se pode colocar em risco o ineditismo de pesquisas ou dados das pessoas”, alerta Elisângela Ferreti Manffra, da PUCPR (foto: divulgação)
No plano interno, foi designado um Núcleo de Base, com cinco docentes de diferentes áreas e dedicação contínua. O segundo núcleo tem representantes de todas as escolas e também do Grupo Marista, do qual a PUCPR faz parte. Este segundo grupo se volta a eventuais decisões críticas que requeiram visão de toda a instituição. A cargo do Núcleo de Base ficou o documento inicial, submetido ao grupo estendido. Os participantes tomaram como base recomendações e análises da Unesco, do Departamento de Educação americano e das políticas do Grupo Marista.
Formulado com foco na educação, suas diretrizes atenderam a uma percepção interna. “A necessidade da política foi decorrência do mau uso que vinha sendo feito por alunos e professores, podendo expor dados pessoais ou de pesquisa”, relata a professora Elisângela. “É uma recomendação de que não se deve colocar em risco o ineditismo de pesquisas ou dados das pessoas”, completa. Por isso, há foco na responsabilização, com recomendações para estudantes exercerem sua autonomia com segurança.
Antes dos alunos, porém, os professores precisam saber em que momentos a IA pode e deve ser usada. Isso demanda a criação de um senso crítico por parte dos docentes, que foram ouvidos por meio de uma enquete e de formações ao longo de 2024. Por sinal, um dos pedidos foi de que primeiro se trabalhasse com eles, o que, de certa forma, já é feito desde a pandemia, quando o Creare elaborou um rol de competências digitais docentes. Também houve uma enquete, posterior, com os alunos, e agora se discute se serão oferecidos cursos livres de extensão ou se haverá a criação de uma disciplina obrigatória.
Elisângela lembra que será preciso revisar as diretrizes anualmente, tanto em função de mudanças nas ferramentas tecnológicas como para saber se a primeira versão do documento foi assimilada.
Num plano mais amplo, ao refletir sobre algumas ameaças que a tecnologia oferece à sociedade, ela aponta três fatores de atenção. O primeiro é o que mais provoca debates: o perigo de usos invasivos da massa de informações disponível por meio de governos ou grupos econômicos; o segundo é o de descolamento da realidade na medida em que há um outro mundo para além do digital que muitas vezes é esquecido. O terceiro está ligado a uma espécie de involução humana decorrente do excesso de atribuições às tecnologias:
“Se formos delegando mais e mais coisas, vamos acabar reduzindo a nossa capacidade intelectual. Esse é o maior risco, a redução de nossa potência intelectual”, avalia a professora, que há 20 anos trabalha com pesquisas em biomecânica.
Já no caso da paulista ESPM, a construção de suas normativas está ocorrendo por áreas. A primeira delas foi a administrativa, para a qual já há políticas e orientações de uso voltadas a todos os funcionários, que fizeram diversas oficinas.
No caso do corpo docente da instituição, em média na faixa dos 35 aos 40 anos, há muita avidez por informação, segundo Danilo Torini, gerente de Tecnologias de Ensino e Aprendizagem. “Já fizemos várias conversas com os docentes, por meio do Núcleo de Inovação Pedagógica. Os professores estão inteirados do que são as ferramentas e buscam uma formação continuada, pois sabem que as tecnologias mudam muito”, relata.
Segundo Danilo Torini, da ESPM, os docentes estão ávidos por conhecer tudo sobre IA (foto: divulgação)
Torini lembra que a IA generativa tem impacto muito grande sobre as áreas de comunicação de modo geral, às quais estão voltados vários cursos da instituição. E que, além das bases textuais, já estão afetando também a produção audiovisual. Isso implica estar atento para o currículo dos cursos. “Não é se, mas quando as ferramentas vão afetar o mercado de trabalho.” Por isso, o Núcleo que gerencia tem trabalhado em algumas frentes, tais como metodologia para gestão da aprendizagem, relação entre objetivos e dinâmicas de aprendizagem, entre outras.
O próximo passo é criar um manual de políticas e boas práticas para o uso da IA pelos estudantes. Há um comitê que trabalha ferramentas generativas de ensino e aprendizagem. A avaliação institucional é que isso exige cuidado redobrado de infraestrutura e tecnologia, como monitoramento para impedir invasões e usos indevidos ou incomuns. “Sentimos necessidade de padronizar o uso para todos. Estamos buscando iniciativas já desenvolvidas em outros países”, diz Torini, indicando caminho similar ao da PUCPR e da FGV.
O trabalho com os alunos envolve a utilização de dados de questionários feitos com eles próprios sobre seu perfil de uso, muito voltado também para a avaliação da aprendizagem. E fazer com que eles possam sofisticar o uso dos recursos. “Muitos nativos digitais usam bem determinadas ferramentas, mas não têm um nível alto de proficiência digital. O objetivo é fazer com que entendam o potencial e os limites do uso da IA, inclusive o cruzamento de ferramentas”, revela.
No grupo Yduqs, que congrega instituições como Estácio e Ibmec, há uma grande aposta na IA como diferencial competitivo no ensino superior, como diz o vice-presidente Aroldo Alves. Ele enfatiza ganhos em eficiência, personalização e qualidade na experiência acadêmica. “A assistente digital ‘Tácia’, utilizada por 540 mil alunos, é uma solução importante na integração do ecossistema digital’, destaca.
Aroldo Alves, da Yduqs: treinamentos específicos para cada área (foto: divulgação)
No entanto, o grupo ainda não elaborou uma política de uso para a IA. Segundo Alves, são realizados treinamentos específicos, destinados aos diversos públicos da empresa, visando “a melhor utilização das ferramentas, eficiência, atualização e integração da IA em rotinas e processos”.
Para o vice-presidente, “a IA tem revolucionado a experiência acadêmica, com destaque para a geração automatizada de avaliações e conteúdos acadêmicos, além de análises curriculares para personalizar a jornada do aluno. Também está presente na correção de provas e oferta de feedback em questões dissertativas, facilitando o trabalho dos docentes e otimizando o tempo de retorno para os estudantes”.
O relator do substitutivo do PL 2338 suprimiu da lista de sistemas de alto risco os algoritmos de distribuição de conteúdo de redes sociais, o que ainda deverá provocar muita discussão. Entraram na classificação os seguintes itens, segundo a Agência Senado: