您的位置:首页 >生活 >

大型语言模型可以检测讽刺吗

导读 大型语言模型(LLM)是先进的深度学习算法,可以分析各种人类语言的提示,随后生成现实且详尽的答案。在OpenAI的ChatGPT平台发布后,这一有前

大型语言模型(LLM)是先进的深度学习算法,可以分析各种人类语言的提示,随后生成现实且详尽的答案。在OpenAI的ChatGPT平台发布后,这一有前途的自然语言处理(NLP)模型变得越来越受欢迎,该平台可以快速回答各种用户查询并为不同用途生成令人信服的书面文本。

随着这些模型变得越来越普遍,评估它们的能力和局限性至关重要。这些评估最终可以帮助了解法学硕士最有用或最无用的情况,同时也确定可以改进的方法。

纽约大学研究员JuliannZhou最近进行了一项研究,旨在评估两名受过检测人类讽刺训练的法学硕士的表现,这需要通过讽刺性地陈述与人们想说的完全相反的内容来传达想法。她的发现发布在预印本服务器arXiv上,帮助她描述了可以增强人工智能代理和机器人的讽刺检测能力的功能和算法组件。

“在自然语言处理的情感分析领域,正确识别讽刺的能力对于理解人们的真实观点是必要的,”周在她的论文中写道。“由于讽刺的使用通常是基于上下文的,因此之前的研究使用了语言表示模型,例如支持向量机(SVM)和长短期记忆(LSTM),来通过基于上下文的信息来识别讽刺。最近的创新NLP为检测讽刺提供了更多可能性。”

情感分析是一个研究领域,需要分析通常发布在社交媒体平台或其他网站上的文本,以深入了解人们对特定主题或产品的感受。如今,许多公司都在这一领域进行投资,因为它可以帮助他们了解如何改进服务并满足客户的需求。

现在有几种NLP模型可以处理文本并预测其潜在的情绪基调,或者换句话说,它们是否表达积极、消极或中性的情绪。然而,网上发布的许多评论和评论都包含讽刺和讽刺,这可能会欺模型,让他们在实际上表达负面情绪时将其归类为“积极”,反之亦然。

因此,一些计算机科学家一直在尝试开发可以检测书面文本中讽刺的模型。这些模型中最有前途的两个称为CASCADE和RCNN-RoBERTa,由不同的研究小组于2018年提出。

“在BERT:用于语言理解的深度双向变换器的预训练中,JacobDevlin等人(2018年)引入了一种新的语言表示模型,并在解释上下文语言方面表现出了更高的精度,”Zhou写道。“正如Hazarika等人(2018)提出的,CASCADE是一种上下文驱动的模型,可以在检测讽刺方面产生良好的结果。这项研究使用这两种最先进的模型分析了Reddit语料库,并根据基线模型评估了它们的性能找到讽刺检测的理想方法。”

从本质上讲,Zhou进行了一系列测试,旨在评估CASCADE和RCNN-RoBERTa模型检测Reddit上发布的评论中的讽刺的能力,Reddit是著名的在线平台,通常用于评价内容和讨论各种主题。还将这两个模型检测样本文本中讽刺的能力与人类在同一任务上的平均表现(在之前的工作中报告)以及一些用于分析文本的基线模型的性能进行了比较。

“我们发现,与更传统的CNN方法相比,上下文信息(例如用户个性嵌入)以及TransformerRoBERTa的结合可以显着提高性能,”Zhou在她的论文中总结道。“鉴于基于上下文和基于变压器的方法的成功,如我们的结果所示,用额外的上下文信息特征增强变压器可能是未来实验的一个途径。”

作为最近研究的一部分收集的结果可能很快会指导该领域的进一步研究,最终有助于法学硕士的发展,更好地检测人类语言中的讽刺和反讽。这些模型最终可能被证明是非常有价值的工具,可以快速对在线评论、帖子和其他用户生成的内容进行情感分析。

免责声明:本文由用户上传,如有侵权请联系删除!