Universidades Exigem Declaração de Uso de IA em Trabalhos

A crescente integração das ferramentas de Inteligência Artificial (IA) generativa, como ChatGPT e Gemini, no ambiente acadêmico brasileiro forçou as universidades a estabelecerem diretrizes claras sobre seu uso em trabalhos e pesquisas. A tendência dominante entre as principais instituições de ensino superior é exigir transparência total e supervisão humana, abandonando a ideia de proibir completamente a tecnologia, mas focando na responsabilidade autoral do estudante.
O Fim da Proibição Total: A Nova Regra é a Transparência
Reitores e professores reconheceram que tentar banir o uso de IAs seria ineficaz diante da rápida evolução tecnológica. Em resposta, grandes universidades públicas, como a Universidade de São Paulo (USP), a Universidade Estadual Paulista (Unesp) e a Universidade Estadual de Campinas (Unicamp), estão estruturando departamentos e divulgando guias para coordenar o uso ético dessas ferramentas.
O cerne da nova regulamentação é a obrigação de o aluno declarar explicitamente se e como a IA foi utilizada em suas produções. Não basta apenas afirmar: “Eu usei IA”. O rigor acadêmico demanda o detalhamento da ferramenta, da versão utilizada e, crucialmente, dos prompts (comandos) enviados ao sistema, além da descrição da maneira como a resposta foi integrada ou validada no trabalho final.
Veja também:
O Que Pode, o Que Não Pode e o Que Depende
As diretrizes estabelecidas por instituições como a Unesp classificam as práticas em categorias, oferecendo um panorama do que é aceitável e do que é terminantemente proibido. A responsabilidade final pelo conteúdo, incluindo eventuais erros ou plágios gerados pela ferramenta, recai integralmente sobre o autor humano.
Usos Geralmente Permitidos (Com Declaração)
- Auxílio na Revisão: Correção gramatical, ortográfica e revisão de estilo para melhorar a clareza e coesão.
- Geração de Ideias Iniciais: Criação de esboços, roteiros, cronogramas e mapas mentais para estruturar o trabalho.
- Síntese e Parafraseamento: Elaboração de resumos ou parafraseamento de parágrafos, desde que o conteúdo seja validado pelo aluno.
- Tradução: Tradução de textos para fins de pesquisa, exigindo, contudo, revisão e validação cuidadosa pelo estudante.
- Criação de Mídias: Geração de imagens, vídeos, animações, músicas, apresentações e jogos educativos.
Usos Estritamente Proibidos
A principal vedação é a desonestidade acadêmica, que inclui:
- Submissão como Próprio: Entregar trabalhos gerados total ou parcialmente por IA como se fossem produções originais, sem declaração explícita.
- Plágio Indevido: Deixar de citar fontes que a IA possa ter incorporado em suas respostas.
- Uso em Avaliações: Utilizar IA em provas, testes ou avaliações sem autorização expressa do docente.
- Produção de Desinformação: Criação de deepfakes ou simulação de resultados experimentais sem explicitar o uso.
- Delegar Autoria Intelectual: Simplesmente delegar a responsabilidade de elaboração de monografias, dissertações ou teses a sistemas de IAG.
Práticas Condicionais (Depende do Professor)
A permissão para gerar partes específicas de trabalhos ou a participação em tarefas de grupo com IA é uma decisão que recai sobre o professor da disciplina. Nesses casos, o docente deve estipular as regras e exigir a transparência entre os integrantes da equipe.
O Modelo da Declaração: Rigor e Detalhamento
Instituições como a Universidade Federal do Rio de Janeiro (UFRJ) e a Universidade Federal do Maranhão (UFMA), seguindo diretrizes do CNPq, reforçam que a declaração deve ser robusta.
Para garantir a integridade, os alunos devem detalhar, no mínimo:
- Ferramenta(s) e Versão(ões): Indicar o nome exato do modelo de IA utilizado (ex.: ChatGPT 4.0, Gemini Advanced).
- Finalidade do Uso: Especificar a etapa do trabalho auxiliada (revisão, tradução, geração de esboço, etc.).
- Prompts Utilizados: Descrever os comandos-chave enviados para obter o resultado.
- Validação Humana: Confirmar que o conteúdo gerado foi revisado, editado e validado pelo estudante.
O Conselho Nacional de Educação (CNE) também está em processo de discussão de um parecer para estabelecer diretrizes nacionais que abrangerão o ensino público e privado em todas as etapas, servindo como um balizador futuro para as instituições.
Desdobramentos e Mudanças na Avaliação
A dificuldade em detectar o uso de IA por softwares de detecção levou muitas universidades a repensarem seus métodos de avaliação. Em muitas unidades, como na Unicamp, provas orais e apresentações presenciais têm ganhado força como alternativas mais seguras para aferir o conhecimento genuíno do estudante.
Além disso, o CNPq, ao instituir sua nova Política de Integridade na Atividade Científica, tornou obrigatória a declaração de uso de IAG em qualquer fase da pesquisa, reforçando que a autoria intelectual permanece exclusiva dos seres humanos.
Em resumo, a comunidade acadêmica caminha para um modelo de coparticipação supervisionada, onde a IA é vista como uma ferramenta de apoio, mas a autoria intelectual e a responsabilidade ética são intransferíveis ao aluno. A frase “Eu, aluno, declaro que usei IA” é o novo marco da integridade acadêmica na era da inteligência artificial.
