Inteligência artificial (IA) refere-se a “máquinas e algoritmos inteligentes que podem raciocinar e se adaptar com base em conjuntos de regras e ambientes que imitam a inteligência humana”. Este campo está evoluindo rapidamente e o setor educacional, por exemplo, está repleto de discussões sobre o uso da IA na escrita.
Isso é importante não apenas para acadêmicos, mas para qualquer pessoa que dependa de informações confiáveis, desde jornalistas e formuladores de políticas até educadores e o público em geral. Garantir a transparência em como a IA é usada protege a credibilidade de todo o conhecimento publicado.
Na educação e na pesquisa, a IA pode gerar textos, aprimorar o estilo de escrita e até mesmo analisar dados. Ela economiza tempo e recursos, permitindo a síntese rápida de trabalhos, a edição de linguagem e a verificação de referências. Além disso, possui potencial para aprimorar o trabalho acadêmico e até mesmo inspirar novas ideias.
Da mesma forma, a IA é capaz de gerar obras inteiras. Às vezes, é difícil distinguir um trabalho original escrito por um indivíduo de um trabalho gerado por IA.
Essa é uma preocupação séria no mundo acadêmico – para universidades, pesquisadores, professores e alunos. Alguns usos da IA são vistos como aceitáveis, enquanto outros não (ou ainda não).
Como editora e membro do conselho editorial de diversos periódicos, e na minha função de pesquisadora e professora de psicologia, tenho refletido sobre o que constitui uso aceitável de IA na escrita acadêmica. Consultei várias diretrizes publicadas:
- O Comitê de Ética em Publicações (COPE), uma organização sem fins lucrativos do Reino Unido, oferece orientação especializada, educação e treinamento em publicação acadêmica.
- Sage Publishing , uma editora acadêmica americana.
- A Associação Americana de Psicologia é uma organização que representa acadêmicos, profissionais e estudantes de psicologia.
- a Academia de Ciências da África do Sul , por meio de sua South African Journal of Science .
As diretrizes são unânimes em afirmar que ferramentas de IA não podem ser listadas como coautoras nem assumir responsabilidade pelo conteúdo. Os autores permanecem totalmente responsáveis por verificar a precisão, o uso ético e a integridade de todo o conteúdo influenciado por IA. A assistência rotineira não precisa ser citada, mas qualquer conteúdo substancial gerado por IA deve ser claramente referenciado.
Vamos analisar isso com mais detalhes.
Conteúdo assistido versus conteúdo gerado
Para entender o uso da IA na escrita acadêmica, é importante distinguir entre conteúdo assistido por IA e conteúdo gerado por IA.
Conteúdo com auxílio de IA refere-se a trabalhos escritos predominantemente por um indivíduo, mas aprimorados com o auxílio de ferramentas de IA. Por exemplo, um autor pode usar IA para auxiliar na verificação gramatical, melhorar a clareza das frases ou fornecer sugestões de estilo. O autor mantém o controle, e a IA atua meramente como uma ferramenta para refinar o produto final.
Esse tipo de auxílio é geralmente aceito pela maioria das editoras, bem como pelo Comitê de Ética em Publicações, sem a necessidade de divulgação formal. Isso desde que o trabalho permaneça original e a integridade da pesquisa seja preservada.
O conteúdo gerado por IA é produzido pela própria IA. Isso pode significar que a ferramenta de IA gera porções significativas de texto, ou até mesmo seções inteiras, com base em instruções detalhadas (sugestões) fornecidas pelo autor.
Isso levanta preocupações éticas, especialmente em relação à originalidade, precisão e autoria. A IA generativa obtém seu conteúdo de diversas fontes, como web scraping, conjuntos de dados públicos, repositórios de código e conteúdo gerado pelo usuário – basicamente qualquer conteúdo ao qual ela tenha acesso. Você nunca pode ter certeza da autenticidade do trabalho. “Alucinações” da IA são comuns. A IA generativa pode estar plagiando o trabalho de outra pessoa ou infringindo direitos autorais, e você nem saberá.
Assim, para conteúdo gerado por IA, os autores são obrigados a fazer divulgações claras e explícitas. Em muitos casos, esse tipo de conteúdo pode enfrentar restrições. As editoras podem até rejeitá-lo completamente, conforme descrito nas diretrizes do Comitê de Ética em Publicações (COPE).
O que é permitido e o que não é
Com base na minha leitura das diretrizes , ofereço algumas dicas práticas para o uso de IA na escrita acadêmica. Elas são bastante simples e podem ser aplicadas em diversas áreas do conhecimento.
Conteúdo de nossos parceiros
- As diretrizes afirmam que as ferramentas de IA podem ser usadas para tarefas rotineiras, como aprimorar a gramática, revisar a estrutura das frases ou auxiliar em pesquisas bibliográficas. Essas aplicações não exigem menção específica.
- De acordo com as diretrizes analisadas, o conteúdo gerado por IA não é permitido, a menos que haja razões claras para sua necessidade na pesquisa e que o conteúdo seja claramente identificado e referenciado como tal. Portanto, dependendo de como a IA for utilizada, ela deve ser referenciada no manuscrito. Isso pode ocorrer na revisão da literatura, na seção de métodos ou na seção de resultados.
- A Sage e o Comitê de Ética em Publicações enfatizam que os autores devem divulgar quando conteúdo gerado por IA for utilizado, citando-o adequadamente. Existem diferentes convenções para citar o uso de IA , mas todas parecem concordar que o nome da ferramenta generativa utilizada, a data de acesso e o comando usado devem ser citados. Esse nível de transparência é necessário para manter a credibilidade do trabalho acadêmico.
- Outros aspectos relacionados à assistência de IA, como correção de código, geração de tabelas ou figuras, redução do número de palavras ou verificação de análises, não podem ser mencionados diretamente no corpo do manuscrito. Em consonância com as recomendações de boas práticas atuais , isso deve ser indicado ao final do manuscrito.
- Os autores são responsáveis por verificar a precisão de qualquer conteúdo de IA, seja ele assistido por IA ou gerado por IA, garantindo que esteja livre de viés, plágio e possíveis violações de direitos autorais.
A palavra final (por enquanto)
As ferramentas de IA podem, sem dúvida, aprimorar o processo de escrita acadêmica, mas seu uso deve ser abordado com transparência, cautela e respeito aos padrões éticos.
Os autores devem manter-se vigilantes na preservação da integridade acadêmica, especialmente quando se utiliza inteligência artificial. Devem verificar a precisão e a adequação do conteúdo gerado por IA, garantindo que este não comprometa a originalidade ou a validade do seu trabalho.
Houve excelentes sugestões sobre quando a declaração de IA deve ser obrigatória, opcional e desnecessária. Em caso de dúvida, a melhor recomendação seria incluir o uso de qualquer forma de IA (assistida ou gerada) no reconhecimento.
É muito provável que essas recomendações sejam revisadas em breve, à medida que a IA continua a evoluir. Mas é igualmente importante que comecemos por algum lugar. As ferramentas de IA vieram para ficar. Vamos lidar com isso de forma construtiva e colaborativa.
Sumaya Laher , Professora da Universidade de Witwatersrand .
Este artigo foi republicado do The Conversation sob uma licença Creative Commons. Leia o artigo original .








