为什么不必ChatGPT

我用的ChatGPT是GPT 3.5,不能联网。当然没钞才能,所以不知道GPT-4运用感受怎么,所以今日给大家介绍一下怎么运用ChatPDF + New bing快速筛论文。

New Bing + ChatPDF 论文阅读生产力

New Bing + ChatPDF 论文阅读生产力


ChatPDF

New Bing + ChatPDF 论文阅读生产力

上个月师兄给我推荐了这个网站:ChatPDF – Chat with any PDF!

你只需要上传论文PDF或许论文PDF的链接,它即可主动帮你阅览论文。只需你输入杰出的prompt,就能获得比较好的论文阅览成果。

New Bing + ChatPDF 论文阅读生产力

凭我NLP人的直觉,这个网站背面的算法应该是主要做摘要和阅览了解之类的东西。

自然语言处理(NLP)的阅览了解(Reading Comprehension) 使命是指让计算机对自然语言文本进行了解和答复相关问题的使命。该使命旨在让计算机更好地了解自然语言文本,并能够答复与该文本相关的问题。

阅览了解使命通常包括两个子使命:

  • 阅览了解(Reading Comprehension):阅览一段给定的文本,了解其含义,并答复与该文本相关的问题。例如,给定一篇文章,计算机需要读取文章并答复与文章相关的问题,如“作者在文章中表达了什么观念?”、“文章中提到的人物是谁?”等。

  • 问答体系(Question Answering):这是阅览了解使命的一个更具挑战性的变体,其间问题并不是依据给定文本的,而是由用户提出的。计算机需要读取给定的文本,并依据用户提出的问题答复问题。例如,给定一篇文章和一个问题“这篇文章的主要内容是什么?”,计算机需要读取文章并答复问题。

自然语言处理(NLP)中的文本摘要使命 是指从一篇文本中主动提取出最重要的内容,并生成一个简略的摘要。它的主要意图是帮助人们快速了解一篇文章或文档的主要内容,以便于决策或进一步的处理。

文本摘要使命能够分为两类:单文档摘要和多文档摘要。单文档摘要是指从一篇文本中提取出最重要的内容,而多文档摘要则是从多篇文本中提取出要害信息。

可是我能够确认,这玩意儿肯定不能联网, 因为我问他了!

New Bing + ChatPDF 论文阅读生产力

尽管答复的具体,可是不能联网,答案有时候比较呆瓜,超出论文内容的东西它就答复不出来了。


New Bing

几天之后师兄告知我:快看!New Bing也能够!

New Bing + ChatPDF 论文阅读生产力

New Bing咱们知道,背靠微软,手拿OpenAI的GPT,还加上必应本身的查找,所以是一个依据检索+问答的强大体系。我不会答复没问题,可是我能够查啊!

已然师兄发现它能够读论文,那咱们岂不是省劲了?

可是实际运用下来效果并没幻想中的那么好,因为New Bing答复的比较简洁。

所以今日我用ChatPDF的时候发现一个好用的东西!


New Bing + ChatPDF

New Bing + ChatPDF 论文阅读生产力

咱们看了一下我干嘛了。

New Bing + ChatPDF 论文阅读生产力

我让ChatPDF帮我读论文,简略让他找数据集,可是它不知道???所以我把这个论文丢到New Bing中了,依据检索的New Bing能够查到啊!查到之后再丢回ChatPDF里,ChatPDF就能出更详尽的答复了。

我对ChatPDF: 数据集用了什么?

ChatPDF: DIFFUSEQ 论文中描述了四个典型的 SEQ2SEQ 文本生成使命以及用于评价模型功能的数据集。敞开域对话使命运用了Commonsense Conversation Dataset(Zhou等人,2018),该数据集从Reddit单轮对话中提取,包括超过300万个对话对。问答生成(QG)使命运用由Lin等人预处理的Quasar-T数据集(Dhingra等人,2017)。不幸的是,论文没有供给有关其他两个使命所运用的数据集的信息。

我对ChatPDF: 你再细心看一遍,用了什么数据集

ChatPDF: 十分抱愧,我的前一个答复有误。DIFFUSEQ 论文中描述了四个典型的 SEQ2SEQ 文本生成使命以及用于评价模型功能的数据集。敞开域对话使命运用了Commonsense Conversation Dataset(Zhou等人,2018),该数据集从Reddit单轮对话中提取,包括超过300万个对话对。问答生成(QG)使命运用由Lin等人预处理的Quasar-T数据集(Dhingra等人,2017)。另外两个使命是语音转写和机器翻译,但论文没有供给这两个使命所运用的数据集的信息。

上边这段对话能够看出来,四个数据集,光看论文只能告知我俩。

我对New Bing: 读一下这篇论文 arxiv.org/pdf/2210.08…

New Bing: 这篇论文的标题是 “DiffuSeq: Sequence to Sequence Text Generation with Diffusion Models”,作者是 Shansan Gong, Mukai Li, Jiangtao Feng, Zhiyong Wu 和 Lingpeng Kong。这篇论文发表在 arXiv.org 上,它讨论了怎么运用分散模型来解决序列到序列文本生成使命。 你想了解这篇论文的哪些方面?

我对New Bing: 这篇论文用了什么数据集?

New Bing: 依据我在查找成果中找到的信息,这篇论文运用了四个数据集:Commonsense Conversation、Quasar-T、Wiki-alignment 和 QQP。 你想了解更多关于这些数据集的信息吗?

我对ChatPDF: 这篇论文运用了四个数据集:Commonsense Conversation、Quasar-T、Wiki-alignment 和 QQP。

ChatPDF: 十分抱愧,我的前两个答复都有误。您是正确的,DIFFUSEQ 论文中运用了四个数据集:Commonsense Conversation、Quasar-T、Wiki-alignment 和 QQP。敞开域对话使命运用了Commonsense Conversation Dataset(Zhou等人,2018),问答生成(QG)使命运用了由Lin等人预处理的Quasar-T数据集(Dhingra等人,2017)。Wiki-alignment 数据集用于机器翻译使命,QQP 数据集用于语义类似度使命。 十分感谢您指出我的错误,并希望这次答复愈加精确和有用。

我对ChatPDF: 所以再说一下,用了啥数据集?

ChatPDF: DIFFUSEQ 论文运用了四个数据集:Commonsense Conversation、Quasar-T、Wiki-alignment 和 QQP。其间,Commonsense Conversation 数据集用于敞开域对话使命,Quasar-T 数据集用于问答生成(QG)使命,Wiki-alignment 数据集用于机器翻译使命,QQP 数据集用于语义类似度使命。

运用New Bing批改其成果之后,咱们得到了更合理的答案。

总结

ChatPDF:读论文才能强,专门做的读论文的问答体系,答复的更专业。可是不能联网,只能依据给定的PDF进行了解问答。

New Bing:尽管读论文才能一般,可是人家依据检索啊。

所以二者相得益彰或成为白嫖党新的读论文生产力。


本文正在参与「金石计划」