Coordenadora do CEPI e da área de metodologia de ensino da FGV Direito SP
É preciso esforço institucional para que o tema da IA avance de maneira adequada nas IES, o que evidentemente não se resume à dicotomia permitido/proibido
O uso da IA generativa na academia é um fato. Nada de inesperado, já que seu uso e abuso foram antecipados até mesmo pelos leigos no assunto. Passados dois anos do frisson inicial, torna-se cada vez mais evidente que as questões que cercam o tema na universidade não se resolverão pelo docente sozinho. É preciso esforço institucional para que ele avance de maneira adequada, o que evidentemente não se resume à dicotomia permitido/proibido. Esse esforço será estratégico para a própria instituição.
É provável que muitos alunos já usem LLMs para auxiliá-los a percorrer o programa de ensino, inclusive na produção de texto. Já são relativamente frequentes os trabalhos com padrões textuais sugestivamente minutados por máquina, com uso de termos e expressões característicos dessas ferramentas, mas desprovidos de qualquer menção a esse respeito. A maior parte dos casos fica restrito a suspeitas levantadas pela intuição do docente, já que raramente lhe sobra fôlego para uma investigação aprofundada. Afinal, caso confirmado o uso não declarado, resta o dilema do que fazer com o aluno, potencialmente agravado pela inexistência de regras e/ou mecanismos para lidar com o caso.
Isso, sem considerar a necessidade de triagem de todos os trabalhos pelos demais alunos. Ou seja, surge uma carga de trabalho adicional, quiçá demasiada, cujo enfrentamento pelo docente possa fazer pouco ou nenhum sentido diante da ausência de incentivos e mecanismos institucionais, inclusive para assuntos até mesmo mais comuns, como controle de frequência e prevenção de cola. Afinal, se a instituição não se preocupa, por que deve o docente fazê-lo? Eis a necessidade inicial de uma política institucional (ou, ao menos, de uma iniciativa institucional) sobre uso de IA generativa pela comunidade acadêmica.
O maior interessado em uma política do tipo é a própria instituição. Dito de outra maneira, mais economicista, é a instituição quem tem mais a perder com uma política de IA generativa ineficiente, inadequada ou inexistente. Afinal, com o amadurecimento do debate, as regras, mecanismos e órgãos para conformidade e controle da produção acadêmica assistida por máquina terão papel certificatório da qualidade do trabalho, pelo menos no que se refere à contribuição humana na produção de conhecimento. Quando isso ocorrer, a qualidade e a confiabilidade do aparato de controle de uso de IA generativa afetarão a reputação da respectiva instituição.
Certamente, o docente deve participar da formulação do aparato de controle, já que é quem lida diretamente com a produção discente, seja em disciplinas, seja em orientações. Mas isso não significa atribuir a ele poder discricionário sobre o tema, a exemplo de algumas iniciativas, as quais, partindo de uma construção da política de baixo para cima, conferem ao docente, num primeiro momento, toda liberdade para estabelecer as regras que entender necessárias à sua disciplina.
Na ausência de medidas adicionais, essa etapa converge para uma mera chancela da direção em prol da manutenção do status quo, reafirmando as atribuições do docente nas suas atividades típicas. A aplicação de sanções que ultrapassem o escopo meramente disciplinar (i.e., notas, frequência e registro de ocorrências diversas), por exemplo, já dependeria de algum tipo de mecanismo institucional, ainda que genérico.
Incluir o docente no processo significa, antes de tudo, fornecer apoio para que ele se torne um agente nesse sentido. E, como ponto de partida, é preciso fornecer formação em metodologia de ensino e formação em IA. O docente deve ter clareza de suas escolhas metodológicas, de modo que seus métodos sejam adequados à consecução dos objetivos pedagógicos. Por exemplo, o uso de IA generativa em trabalhos disciplinares é: (i) obrigatório, (ii) recomendado, (iii) tolerado, (iv) desaconselhado ou (v) proibido? Qual o objetivo pedagógico dessa regra? A regra é adequada ao objetivo?
Pensar no uso acadêmico da IA pelos objetivos do ensino confere uma perspectiva ampla, já que questões pragmáticas das profissões são consideradas na formulação da política. A IA generativa, como ferramenta de automação, é, antes de tudo, uma ferramenta de produtividade na produção de conteúdo. Se bem utilizada, pode auxiliar na redação de trabalhos, inclusive de titulação, sem comprometer a natureza autoral da produção de conhecimento.
Por essa razão, há políticas que afastam a capacidade autoral do conteúdo gerado por máquina, não pela desnecessidade de indicação de sua geração ou pelo afastamento de eventual fraude acadêmica, mas pela responsabilização do usuário desse conteúdo da mesma maneira que um texto de autoria própria. Ou seja, não pode o usuário invocar em seu benefício o uso de conteúdo robótico por eventuais defeitos que contenha, sendo ele o garantidor da sua qualidade.
Caminhamos para a era da autoria e coautoria robótica na academia, tal qual já acontece com conteúdos digitais diversos. Para que isso seja produtivo para a academia e justo para sua comunidade, ela precisa ser regulada pelos seus agentes. Já há um número de iniciativas nesse sentido. É questão de tempo para que a comunidade fixe as normas que devem gerir a produção acadêmica. Quem não o fizer agora terá de fazê-lo em outro momento, atrás da concorrência e longe da excelência.
Por: Marina Feferbaum | 03/02/2025