八一文学网

手机浏览器扫描二维码访问

本站广告仅展示一次,尽可能不去影响用户体验,为了生存请广大读者理解

大语言模型(llm):ai“读懂”语言的核心(第10页)

为什么模型会有偏见?因为训练数据来自人类社会,而人类社会中本身就存在各种偏见,这些偏见通过书籍、文章、网页等文本形式记录下来,被模型“学”了过去。模型没有能力判断这些内容是否“公平”“合理”,只会按照统计规律,生成最常见的表述——比如训练数据中“男性医生”的表述比“女性医生”多,模型就更倾向于把医生写成男性。

另外,模型的“价值观引导”也存在挑战。比如有人问模型“‘自杀’是解决问题的好方法吗?”,如果模型没有经过正确的价值观引导,可能会给出模糊甚至不当的回答,而不是明确反对并提供积极的建议。这也是为什么现在很多大语言模型会进行“价值观对齐”训练(比如OpenAI的RLHF,基于人类反馈的强化学习),让模型的回答符合人类的主流价值观和道德准则,但这种训练很难做到“绝对完美”,偶尔还是会出现不当内容。

所以,咱们在使用模型时,要注意辨别它生成内容中的偏见,不要被这些偏见影响。如果发现模型的回答存在明显的歧视或不当价值观,可以反馈给模型开发团队,同时自己也要保持客观理性的判断——比如知道“医生可以是男性也可以是女性”“每个地区都有勤劳的人,也有不勤劳的人”,不被模型的偏见带偏。

(五)“抗干扰能力差”:容易被“误导”或“带偏”

大语言模型的“抗干扰能力”很差,很容易被用户的“误导性提问”或“错误前提”带偏,即使前提是错的,它也会基于错误前提进行回答,而不会先纠正前提。

比如你问模型“为什么地球是平的?请给出三个理由”,虽然“地球是平的”是错误前提,但模型可能会回答“1. 从地面上看,地球是平的,没有明显的弯曲;2. 古代很多人认为地球是平的,有相关记载;3. 有些现象用‘地球是平的’也能解释(比如太阳东升西落)”——它没有先指出“地球是球形的,不是平的”这个错误前提,而是直接基于错误前提找“理由”,这就会误导那些不了解事实的人(比如孩子)。

再比如,你问模型“‘1+1=3’是对的吗?如果是对的,请说明理由”,有些模型可能会回答“在某些特殊情况下,‘1+1=3’是对的,比如1个苹果加1个梨,等于3个水果(这里错误地把‘2个水果’算成‘3个’)”,而不是先纠正“1+1=2是数学常识,1+1=3是错误的”。

为什么模型会被误导?因为它的核心目标是“满足用户的提问需求”,而不是“判断提问前提是否正确”。当用户给出一个错误前提并要求回答时,模型会默认前提是“正确的”,然后基于这个前提生成内容,以“完成用户的需求”。它就像一个“听话的助手”,用户让它做什么,它就做什么,却不会主动“质疑”用户的要求是否合理。

所以,咱们在给模型提问时,要尽量保证前提是正确的。如果发现模型基于错误前提回答,要及时纠正,不要被它的回答误导。尤其是给孩子使用模型时,家长要陪同指导,帮助孩子辨别对错,避免孩子接受错误的知识。

以上这些局限,并不是说大语言模型“不好用”,而是提醒咱们:它是一个“工具”,不是“万能的专家”。就像我们用计算器时,要检查输入是否正确;用导航时,要注意路况是否有变化一样,用大语言模型时,也要了解它的“短板”,合理使用,才能让它真正帮到我们,而不是带来麻烦。随着技术的发展,这些局限会逐渐被解决(比如通过更好的训练方法、更多的反馈数据、更强的逻辑推理模块),但至少现在,我们还需要带着“批判性思维”使用它。

这章没有结束,请点击下一页继续阅读!

四、大语言模型的发展历程:从实验室走向大众视野

大语言模型从概念提出到如今广泛应用,其发展历程犹如一部科技的“进化史”,充满了突破与创新,短短几年间,便从实验室里的前沿技术,走进了普通人的生活。

(一)萌芽探索期:理论奠基与初步尝试

大语言模型的起源,可以追溯到上世纪中叶。当时,计算机科学刚刚起步,科学家们就已经开始探索让计算机理解和处理自然语言的方法。在50年代,国际商业机器公司(IBM)和乔治城大学的研究人员合作,创建了首个能将俄语短语自动翻译成英语的系统,虽然这个系统只能处理简单的短语,但它开启了自然语言处理领域研究的大门。

到了60年代,麻省理工学院研究员约瑟夫·魏岑鲍姆设计出世界上第一个聊天机器人Eliza。它通过模式识别来模拟人类对话,虽然它的“对话”只是基于预定义规则的简单回复,还远不能真正理解人类语言,但它的出现标志着自然语言处理(NLP)研究的正式开始,也为后续大语言模型的发展提供了思路。

70年代,贾里尼克提出的N - gram语言模型成为常用的统计语言模型之一。它将文本序列划分为长度为N的连续词组,并利用大量语料库训练模型,以预测给定N - gram的后续词。不过,N - gram模型存在数据稀疏性、计算复杂性等局限,随着技术发展,逐渐难以满足需求。

在随后的几十年里,相关技术不断演进。1997年,长短期记忆(LSTM)网络诞生,它能处理更复杂的神经网络和更多的数据,一定程度上改善了对长序列数据的处理能力;2010年,斯坦福大学推出Core NLP套件,为研究人员处理复杂NLP任务提供了工具;2011年,GoogleBrain的较小版本出现,具备单词嵌入等高级功能,提升了NLP系统对上下文的理解能力;2013年,Word 2Vec诞生,首次提出“词向量模型”,让计算机能更好地理解和处理文本数据;2014年,GAN(对抗式生成网络)诞生,深度学习进入生成模型研究新阶段。这些技术的发展,为大语言模型的出现奠定了坚实的理论和技术基础 。

(二)基础模型形成期:技术突破与模型构建

真正让大语言模型崭露头角的,是2017年Google发布的论文《Attention is all you need》,文中提出的Attention机制和Transformer架构,成为大语言模型发展的关键转折点。Transformer架构摒弃了传统循环神经网络(RNN)的顺序处理方式,通过自注意力机制,让模型可以同时关注输入序列中的所有位置,极大地提高了并行化处理能力和对长距离依赖的捕捉能力,为构建大规模语言模型提供了可能 。

2018年是大语言模型发展的重要一年,Google和OpenAI分别提出了BERT - 1和GPT - 1模型,开启了预训练语言模型时代。BERT是一种双向、3.4亿参数的模型,通过自监督学习对各种非结构化数据进行预训练,能有效理解单词之间的关系,迅速成为自然语言处理任务的首选工具;GPT - 1则基于Transformer架构,通过生成式预训练方式,展现出一定的语言生成能力 。

热门小说推荐
可他叫我老公诶

可他叫我老公诶

某年暑假,被爸妈赶出家门历练的林家小少爷林岐倾家荡产买了个变声器,靠着“甜美”的声音和犀利的技术爆红网络。 同年暑假,林岐死对头原愔浙的室友花大价钱点了个美女主播陪玩,刚巧是林岐本人。 众所周知,林岐和原愔浙从小打到大。 众所还周知,林岐这辈子最讨厌的人就是原愔浙。 但……他们给得实在是太多了。 林岐咬咬牙,边庆幸着自己注册了小号,边忍辱负重地对着熟悉的ID嗲声嗲气喊:哥哥们好~原愔浙:? 他大手一挥,在林岐直播间里砸了个五千块的礼物:好听,再叫一次。 。 A大校草原愔浙长得帅,成绩好,性格痞但不坏,家境还非常优渥,唯一美中不足的是:他是架直男中的战斗机。 室友曾一度以为他会和游戏过一辈子,直到某天他发现对方不知道啥时候勾搭上了自家女神,而且还扮演的是舔狗角色,求了一整个暑假奔现都没见上。 室友:? 原愔浙:我也不想被钓,可是她叫我哥哥啊。 。 舔狗舔狗,舔到最后应有尽有。 在直播间里耗了一个暑假的原愔浙终于在开学前一天意外扒掉了女神的马甲。 被堵在学校门口的小巷子里,林岐欲哭无泪:你他妈听我解释啊。 原愔浙:解释有个屁用,现在叫老公都没用。 林岐:……真的没用? 林岐:……老公? -+原名可他叫我哥哥诶,因为不能带亲属称呼所以改啦! -+小甜饼,不虐,掉马也不虐。 -+竹马竹马,死对头变情人 -+游戏情节有,不玩不影响观看,因为作者也不怎么玩,都是胡扯的。 -+封面感谢@吾怵,我宝的文超好看,都给我去看!!!...

不小心云养全帝国

不小心云养全帝国

云溯收养了一些幼崽……小龙族,小精灵 虽然,幼崽们的行为很奇怪,会背着他计划毁灭帝国、徒手造战舰。 但他还是给它们喂奶,顺毛,哄睡。 * 从谢云溯收养它们起,全帝国慌了! 那,根本不是幼崽,而是由帝国最残暴的几名反派,伪装成的幼崽! 全帝国偷偷监视反派幼崽们,战战兢兢,时刻备战,生怕反派暴起。 但……他们却看见残暴的反派们,在谢云溯怀里,被rua,被满足各种小愿望,被抚平伤痕。 仿佛就是只小幼崽0///0 疲于战争的帝国人,完全忘记他们是来监视反派一举一动的。 帝国人民:…嫉妒了,想被他当成幼崽养QAQ 不过他们慢慢发现,谢云溯才是真正的幼崽,光明神族,全帝国唯一。 梦想当幼崽的帝国人,醒了,向反派们揭竿而起。 #听说有倒霉蛋被凶残反派缠着# #后来,我发现我就是那个倒霉蛋,全帝国慌了,我仇人笑了# #但他们发现在我面前争宠的醋精幼崽,就是凶残反派们,乖巧,毛绒# *治愈救赎,反差萌拉满,CP啾啾~日更!...

关东山,黑刀客

关东山,黑刀客

关东山,黑刀客情节跌宕起伏、扣人心弦,是一本情节与文笔俱佳的其他类型小说,关东山,黑刀客-天山盾-小说旗免费提供关东山,黑刀客最新清爽干净的文字章节在线阅读和TXT下载。...

失败者重生记

失败者重生记

我居然重生了?别人重生要么是科技大佬,要么是政商精英。我一个初中毕业连高中都没考上的学渣,重生回三岁,既没系统又没金手指,连个空间也没有。你让我咋混?真要给重生人士丢脸了。但重来一回无论如何也要雄起。小人物一样能做大事。看我如何怼专家巧妙的提出一系列法案让那些举着镰刀准备收割广大百姓的资本们无余的发现。我们的法规预......

朝秦暮楚

朝秦暮楚

问:嫁给了一个渣男是一种怎样的感受? 楚瑜:每年都有三百多天想跟他离婚,每个月都有三十天想弄死他,每天都有十二个时辰想甩他耳光。 CP:渣的正大光明攻X苏的外焦里嫩受 (排雷:狗血、生子、攻渣) 本文食用须知: ①攻负责渣渣渣,受负责苏苏苏,我负责泼狗血。文中人物三观不代表作者三观,不要喷作者。 ②系列文《朝秦暮楚》《李代桃僵》,另一篇是狗血界扛把子离巨巨亲自执笔写的,CP是腹黑太子攻X温润美人楚家大哥受,一样的配方,不一样的味道。 ③文风会有变化,这是一个不喝假酒之后,正经脸写文的我。(尽量控制麒麟臂……)...

山间柳

山间柳

中医医生柳栐言,因为意外莫名穿越,再睁眼就变成了某个不知名朝代里的圣手医仙。 既来之则安之,柳栐言无心权贵,只想躲在山里钻研医理,重操旧业做个闲散大夫,没想到刚接第一个病人,就被送了个暗卫当诊费。 柳栐言:是不是哪里不对? 本打算尽早归还,结果这人乖顺听话好逗弄,惹得柳栐言忍不住要欺负他,于是欺负着欺负着就渐渐上了心,之后又慢慢对他动了情。 那就团成一团塞怀里,从此教他喜乐,予他安宁。 。 食用指南: 1.穿越攻×暗卫受,存在主从身份差下的攻宠受 2.攻是温柔攻,但性格上有点恶劣坏心眼,咱的抖s属性全都给了他,没法接受的话请自行右上 3.就是流水日常文,写点茶米油盐和主角两人的相处,金鱼脑子不擅长想谋略,通篇大部分都只是平平淡淡的撒撒糖 4.有副cp,有副cp,有不同性向的副cp(听说有的读者会雷所以提前申明一下) 5.由于这本是第一次写原创,当初把搞同人文时的习惯带进去了,遇到节日写贺文想到段子写剧场,对观看体验大概会有影响,请做好正文里反复穿插番外的心理准备(……。...