SODP logo

    Acadêmicos podem usar IA para escrever artigos científicos? O que dizem as diretrizes?

    Inteligência artificial (IA) refere-se a “máquinas e algoritmos inteligentes que podem raciocinar e se adaptar com base em conjuntos de regras e ambientes que imitam a inteligência humana”. Este campo está evoluindo rapidamente e…
    Atualizado em: 1 de dezembro de 2025
    Sumaya Laher

    Criado por

    Sumaya Laher

    A conversa

    Verificado por

    A conversa

    Sumaya Laher

    Editado por

    Sumaya Laher

    Inteligência artificial (IA) refere-se a “máquinas e algoritmos inteligentes que podem raciocinar e se adaptar com base em conjuntos de regras e ambientes que imitam a inteligência humana”. Este campo está evoluindo rapidamente e o setor educacional, por exemplo, está repleto de discussões sobre o uso da IA ​​na escrita.

    Isso é importante não apenas para acadêmicos, mas para qualquer pessoa que dependa de informações confiáveis, desde jornalistas e formuladores de políticas até educadores e o público em geral. Garantir a transparência em como a IA é usada protege a credibilidade de todo o conhecimento publicado.

    Na educação e na pesquisa, a IA pode gerar textos, aprimorar o estilo de escrita e até mesmo analisar dados. Ela economiza tempo e recursos, permitindo a síntese rápida de trabalhos, a edição de linguagem e a verificação de referências. Além disso, possui potencial para aprimorar o trabalho acadêmico e até mesmo inspirar novas ideias.

    Da mesma forma, a IA é capaz de gerar obras inteiras. Às vezes, é difícil distinguir um trabalho original escrito por um indivíduo de um trabalho gerado por IA.

    Essa é uma preocupação séria no mundo acadêmico – para universidades, pesquisadores, professores e alunos. Alguns usos da IA ​​são vistos como aceitáveis, enquanto outros não (ou ainda não).

    Como editora e membro do conselho editorial de diversos periódicos, e na minha função de pesquisadora e professora de psicologia, tenho refletido sobre o que constitui uso aceitável de IA na escrita acadêmica. Consultei várias diretrizes publicadas:

    As diretrizes são unânimes em afirmar que ferramentas de IA não podem ser listadas como coautoras nem assumir responsabilidade pelo conteúdo. Os autores permanecem totalmente responsáveis ​​por verificar a precisão, o uso ético e a integridade de todo o conteúdo influenciado por IA. A assistência rotineira não precisa ser citada, mas qualquer conteúdo substancial gerado por IA deve ser claramente referenciado.

    Vamos analisar isso com mais detalhes.

    Conteúdo assistido versus conteúdo gerado

    Para entender o uso da IA ​​na escrita acadêmica, é importante distinguir entre conteúdo assistido por IA e conteúdo gerado por IA.

    Conteúdo com auxílio de IA refere-se a trabalhos escritos predominantemente por um indivíduo, mas aprimorados com o auxílio de ferramentas de IA. Por exemplo, um autor pode usar IA para auxiliar na verificação gramatical, melhorar a clareza das frases ou fornecer sugestões de estilo. O autor mantém o controle, e a IA atua meramente como uma ferramenta para refinar o produto final.

    Esse tipo de auxílio é geralmente aceito pela maioria das editoras, bem como pelo Comitê de Ética em Publicações, sem a necessidade de divulgação formal. Isso desde que o trabalho permaneça original e a integridade da pesquisa seja preservada.

    O conteúdo gerado por IA é produzido pela própria IA. Isso pode significar que a ferramenta de IA gera porções significativas de texto, ou até mesmo seções inteiras, com base em instruções detalhadas (sugestões) fornecidas pelo autor.

    Isso levanta preocupações éticas, especialmente em relação à originalidade, precisão e autoria. A IA generativa obtém seu conteúdo de diversas fontes, como web scraping, conjuntos de dados públicos, repositórios de código e conteúdo gerado pelo usuário – basicamente qualquer conteúdo ao qual ela tenha acesso. Você nunca pode ter certeza da autenticidade do trabalho. “Alucinações” da IA ​​são comuns. A IA generativa pode estar plagiando o trabalho de outra pessoa ou infringindo direitos autorais, e você nem saberá.

    Assim, para conteúdo gerado por IA, os autores são obrigados a fazer divulgações claras e explícitas. Em muitos casos, esse tipo de conteúdo pode enfrentar restrições. As editoras podem até rejeitá-lo completamente, conforme descrito nas diretrizes do Comitê de Ética em Publicações (COPE).

    O que é permitido e o que não é

    Com base na minha leitura das diretrizes , ofereço algumas dicas práticas para o uso de IA na escrita acadêmica. Elas são bastante simples e podem ser aplicadas em diversas áreas do conhecimento.

    • As diretrizes afirmam que as ferramentas de IA podem ser usadas para tarefas rotineiras, como aprimorar a gramática, revisar a estrutura das frases ou auxiliar em pesquisas bibliográficas. Essas aplicações não exigem menção específica.
    • De acordo com as diretrizes analisadas, o conteúdo gerado por IA não é permitido, a menos que haja razões claras para sua necessidade na pesquisa e que o conteúdo seja claramente identificado e referenciado como tal. Portanto, dependendo de como a IA for utilizada, ela deve ser referenciada no manuscrito. Isso pode ocorrer na revisão da literatura, na seção de métodos ou na seção de resultados.
    • A Sage e o Comitê de Ética em Publicações enfatizam que os autores devem divulgar quando conteúdo gerado por IA for utilizado, citando-o adequadamente. Existem diferentes convenções para citar o uso de IA , mas todas parecem concordar que o nome da ferramenta generativa utilizada, a data de acesso e o comando usado devem ser citados. Esse nível de transparência é necessário para manter a credibilidade do trabalho acadêmico.
    • Outros aspectos relacionados à assistência de IA, como correção de código, geração de tabelas ou figuras, redução do número de palavras ou verificação de análises, não podem ser mencionados diretamente no corpo do manuscrito. Em consonância com as recomendações de boas práticas atuais , isso deve ser indicado ao final do manuscrito.
    • Os autores são responsáveis ​​por verificar a precisão de qualquer conteúdo de IA, seja ele assistido por IA ou gerado por IA, garantindo que esteja livre de viés, plágio e possíveis violações de direitos autorais.

    A palavra final (por enquanto)

    As ferramentas de IA podem, sem dúvida, aprimorar o processo de escrita acadêmica, mas seu uso deve ser abordado com transparência, cautela e respeito aos padrões éticos.

    Os autores devem manter-se vigilantes na preservação da integridade acadêmica, especialmente quando se utiliza inteligência artificial. Devem verificar a precisão e a adequação do conteúdo gerado por IA, garantindo que este não comprometa a originalidade ou a validade do seu trabalho.

    Houve excelentes sugestões sobre quando a declaração de IA deve ser obrigatória, opcional e desnecessária. Em caso de dúvida, a melhor recomendação seria incluir o uso de qualquer forma de IA (assistida ou gerada) no reconhecimento.

    É muito provável que essas recomendações sejam revisadas em breve, à medida que a IA continua a evoluir. Mas é igualmente importante que comecemos por algum lugar. As ferramentas de IA vieram para ficar. Vamos lidar com isso de forma construtiva e colaborativa.

    Sumaya Laher , Professora da Universidade de Witwatersrand .

    Este artigo foi republicado do The Conversation sob uma licença Creative Commons. Leia o artigo original .