Bate-papoGPT

Notícias

LarLar / Notícias / Bate-papoGPT

Aug 18, 2023

Bate-papoGPT

Você também pode procurar este autor no PubMed Google Scholar Você tem acesso total a este artigo através de sua instituição. Chatbots de IA, como o ChatGPT, estão sendo vinculados a bancos de dados científicos para criar

Você também pode procurar por este autor no PubMed Google Scholar

Você tem acesso total a este artigo através de sua instituição.

Chatbots de IA, como o ChatGPT, estão sendo vinculados a bancos de dados científicos para criar experiências de pesquisa conversacional. Crédito: Gabby Jones/Bloomberg via Getty

Os chatbots de conversação alimentados por IA que chegaram aos motores de busca da Internet, como o Bard do Google e o Bing da Microsoft, parecem cada vez mais destinados a mudar também a pesquisa científica. Em 1º de agosto, a gigante editorial holandesa Elsevier lançou uma interface de IA baseada em ChatGPT para alguns usuários de seu banco de dados Scopus, enquanto a empresa britânica Digital Science anunciou um teste fechado de um assistente de modelo de linguagem grande (LLM) de IA para seu banco de dados Dimensions. Enquanto isso, a empresa norte-americana Clarivate diz que também está trabalhando para trazer LLMs para seu banco de dados Web of Science.

LLMs para pesquisa científica não são novos: empresas iniciantes como Elicit, Scite e Consensus já possuem esses sistemas de IA, que ajudam a resumir as descobertas de um campo ou identificar os principais estudos, contando com bancos de dados científicos gratuitos ou (no caso do Scite) acesso a artigos de pesquisa com acesso pago por meio de parcerias com editoras. Mas as empresas que possuem grandes bases de dados proprietárias de resumos e referências científicas estão agora a juntar-se à corrida da IA.

O chatbot da Elsevier, chamado Scopus AI e lançado como piloto, pretende ser uma ferramenta leve e divertida para ajudar os pesquisadores a obter rapidamente resumos de tópicos de pesquisa com os quais não estão familiarizados, diz Maxim Khan, executivo da Elsevier em Londres que supervisionou o desenvolvimento da ferramenta. Em resposta a uma pergunta em linguagem natural, o bot usa uma versão do LLM GPT-3.5 para retornar um parágrafo de resumo fluente sobre um tópico de pesquisa, juntamente com referências citadas e outras questões a serem exploradas.

Em resposta a uma pergunta baseada em texto, o Scopus AI retorna um resumo fluente de um tópico de pesquisa, bem como referências relevantes.Crédito: Scopus AI

Uma preocupação sobre os LLMs para pesquisa – especialmente pesquisa científica – é que eles não são confiáveis. Os LLMs não entendem o texto que produzem; eles funcionam simplesmente cuspindo palavras estilisticamente plausíveis. Os seus resultados podem conter erros factuais e preconceitos e, como os académicos rapidamente descobriram, podem constituir referências inexistentes.

O Scopus AI é, portanto, limitado: foi solicitado a gerar a sua resposta apenas por referência a cinco ou dez resumos de investigação. A IA não encontra esses dados por si mesma: em vez disso, depois que o usuário digita uma consulta, um mecanismo de busca convencional os retorna como relevantes para uma pergunta, explica Khan.

Muitos outros sistemas de mecanismos de busca de IA adotam uma estratégia semelhante, observa Aaron Tay, bibliotecário da Singapore Management University que segue ferramentas de busca de IA. Isso às vezes é denominado geração de recuperação aumentada, porque o LLM se limita a resumir informações relevantes que outro mecanismo de pesquisa recupera. “O LLM ainda pode ocasionalmente ter alucinações ou inventar coisas”, diz Tay, apontando para pesquisas sobre chatbots de IA de pesquisa na Internet, como Bing e Perplexity, que usam uma técnica semelhante.

A Elsevier limitou seu produto de IA para pesquisar apenas artigos publicados desde 2018, de modo a selecionar artigos recentes, e instruiu seu chatbot a citar adequadamente os resumos retornados em sua resposta, para evitar consultas inseguras ou maliciosas, e para indicar se há nenhuma informação relevante nos resumos que recebe. Isso não evita erros, mas os minimiza. A Elsevier também reduziu a imprevisibilidade de sua IA ao escolher uma configuração baixa para a “temperatura” do bot – uma medida de quantas vezes ele escolhe se desviar das palavras mais plausíveis em sua resposta.

Os usuários poderiam simplesmente copiar e colar os parágrafos do bot em seus próprios artigos, plagiando efetivamente a ferramenta? Essa é uma possibilidade, diz Khan. A Elsevier até agora abordou esta questão com orientações que pedem aos investigadores que utilizem os resumos de forma responsável, diz ele. Khan salienta que financiadores e editores emitiram orientações semelhantes, solicitando divulgação transparente se os LLMs forem utilizados, por exemplo, na redação de artigos ou na realização de revisões por pares, ou, em alguns casos, afirmando que os LLMs não devem ser utilizados de todo.