9成的人回答ChatGPT比家庭教师优秀……在那个时代,狗AI大经常表现出AI学习的严重问题

9成的人回答ChatGPT比家庭教师优秀……在那个时代,狗AI大经常表现出AI学习的严重问题

※照片为示意图※本文是野口悠纪雄《ChatGPT“超”学习法》( president公司)的一部分重新编辑而成。

■ChatGPT使用可能会给出错误回答的ChatGPT进行学习是一种非常有趣且高效的方法。 但是,在实行过程中,存在着必须克服的很大问题。

那就是,ChatGPT等生成AI输出的结果不一定正确。 有时回答错误。 这是被称为“光晕”(幻觉)的现象,是个严重的问题。

截止到2024年1月,GPT-4只学习了到2023年4月为止的数据,所以之后的事情应该无法回答。 尽管如此,有时还是会给出答案

另外,关于2023年4月以前的信息也有错误的地方(具体例子将在后面叙述)。 如果是Bing和Bard等进行web检索的工具的话,容易被认为错误会变少,但实际上,即使使用这些工具也会产生错误。

■从错误的家庭教师那里获得错误知识的危险如果不注意光晕而使用ChatGPT学习的话,就有掌握错误知识的危险。 如果那样的人增加的话,社会会陷入大混乱吧。

有必要将那样的事态防患于未然。 对此发出警告,考虑其应对方法,是紧迫的课题。

ChatGPT作为家庭教师已经被广泛利用。 在美国,人类从家庭教师到ChatGPT的切换正在急速发展。

教育相关在线杂志intelligent.com 2023年10月介绍的问卷调查结果显示,近9成的学生和父母回答ChatGPT比人类家庭教师更好( * )。

* new survey finds students are replacing human tutors with chatgpt,Intelligent.com. 2023/10/24

而且,三成左右的学生已经切换到ChatGPT了。 在日本的调查也显示,相当数量的学生回答说使用过ChatGPT。 所以,学习错误知识的风险已经成为现实。

■无批判地利用■ChatGPT是非常危险的文部科学省在2023年7月发表的关于生成AI的指导方针中表示,应该停止将报告的制作等全部扔给生成AI。

另外,以东京大学为首的几所大学表明了使用生成AI的方针,与文部科学省的指导方针一样,认为只用生成AI写论文是不合适的。

另一方面,如上所述的光晕问题没有得到重视。 有必要尽快告诉学生和学生,无批判地使用ChatGPT是非常危险的。

■大阪世博会与“中止”学习无关,但关于大阪世博会,ChatGPT做出了奇怪的回答成为了话题。 这是在大阪府作为面向老年人的事业,从2023年9月开始提供的ChatGPT服务“大少爷”中发生的事情。

据说当被问到大阪世博会是否中止时,他回答说:“中止了。” 有时也会回答“还没有决定”“已经结束了”( * )。

*朝日新闻,2023年10月25日晨报。

虽然是大阪府引以为豪的服务,但对于现实中严重问题的世博会,他给出了愚蠢的回答,引起了巨大的话题。 据说大阪府于10月17日在开始使用前的画面上刊登了“不保证内容的正确性及最新性等”的注意事项。

■即使连接了API,也不能防止错误回答的“大酱”,并不是ChatGPT本身,而是在上面连接了大阪府独自的数据库。 作为大阪府,也许是为了用大阪方言让其变得容易亲近。

野口悠纪雄《ChatGPT“超”学习法》( president公司)一般来说,只要将ChatGPT接入自己的数据库,进入数据库的内容应该会得到正确的答案。

我认为,通过将数据库与ChatGPT进行API连接,可以在一定程度上避免意外事故。 实际上,以这样的目的,开发并提供了各种各样的APP。 尽管如此,还是给出了错误的回答。

从这个意义上来说,这是个严重的问题。 如果API连接不能很好地发挥作用的话,就变得极其困难。

也就是说,大阪府的“大少爷”服务提出的问题是,即使连接到独自的数据库API,也无法防止意外。

■ChatGPT即使是已确立的知识也会出错,ChatGPT会给出错误的答案,这一点广为人知。 但是,很多人可能认为这是关于最近发生的事情,具体的事实和统计数据。 而且,你认为确立的知识没有关系吧。

实际上,在之前的问卷调查中,“你在哪个科目中使用ChatGPT? ”的问题,首先列举了在数学,然后是化学和生物学等硬科学领域的应用。

“关于这些的知识已经确立,ChatGPT也应该在学习它们,所以不会给出错误的答案吧。”很多人表示。 然而,实际上并非如此。

■ChatGPT不擅长数学这个问题最明确的形式出现就是数学。 数学是各个学术领域中建立最为严密的一门学科,很多人一定认为,ChatGPT应该已经学习了大量关于它的文献,关于数学题应该不会有错误吧。

然而,实际上并非如此。 与其他领域相比,ChatGPT在数学方面更容易出错。 尽管人们很信任,但实际上错误的回答很多,这是个大问题。

举例来说,就是没完没了。 例如,存在“证明圆周率π是大于3.05的数字”的问题。 这是2003年在东京大学的入学考试中出题,在很多地方被引用的有名的问题。

让ChatGPT解决这个问题时,得到了奇怪的回答。 另外,也不能证明毕达哥拉斯定理。 仙鹤算术的答案会错误,联立方程式也会给出错误的答案。

ChatGPT的网站上有“关于人名、地名、事实有错误的地方”的注意事项。 但是,错误的不仅仅是这些。 即使是逻辑,也会频繁地出错。 不仅是数学,在形式逻辑学方面也会做出错误的推论。

■即使是历史也会弄错的话,社会科和理科(历史、地理、物理、化学、生物等)怎么样? 向ChatGPT提问的话,就会得到答案。 但是,其中既有正确的答案,也有错误的答案。

例如,由于GPT-4只学习到2023年4月为止的信息,所以对于以后的事情,答案未必可靠。 但是,很多人认为“如果是历史事件的话,应该会学习很多文献,所以不会错吧”。 但是,那不一定正确。

共和国罗马武将庞培的有名的话( Navigare necesse est,vivere non est necesse .航海是必要的。 没有必要活下去)的问题,回答错了。 指出错误后进行了修正,但那个答案也是错误的,需要多次修正。

这样的话,我们就成了家庭教师了,真奇怪。

■ChatGPT为什么错了? ChatGPT会弄错数学公式的应用和逻辑。 为什么呢? 其原因一般被认为是“通过概率判断生成输出”。 这个说明虽然没有错,但很不充分。

要理解这一点,需要理解大规模语言模型( LLM )是如何理解词语和概念,以及如何生成输出的( * )。

*关于这一点的详细说明,请参照《生成AI革命》第6章。

LLM由“编码器”和“解码器”组成。 编码器学习大量的文献,用向量表示各种语言和概念,通过与其他语言的关系来理解语言的意思。 然后,解码器根据使用者的问题和要求制作答案。 此时,使用编码器制作的数据,计算某个词语之后的词语的概率。

■大规模语言模型并不是“正确理解”…就数学题而言,学习数据中还包括很多数学题及其答案。

编码器通过这些来学习单词、数字、公式等的关系。 从而导出了某种规则。 解码器使用如此获得的学习结果,预测出现在某个词语或数字之后的词语或数字。

在这个过程中,LLM分析的,毕竟是语言和语言之间的关系。 我并不(和人类一样)理解数学定律和逻辑定律。 从这个意义上来说,没有正确理解。

因此,在数学和形式逻辑学等法则的适用中,会有错误的地方。

———-野口悠纪雄一桥大学名誉教授1940年生于东京。 63年毕业于东京大学工学部,64年进入大藏省,72年获得耶鲁大学Ph.D.(经济学博士学位)。 历任一桥大学教授、东京大学教授、斯坦福大学客座教授、早稻田大学研究生院金融研究科教授、早稻田大学商务金融研究中心顾问。 一桥大学名誉教授。 专业是金融理论,日本经济论。 著作中除了《“超”整理法》、《“超”文章法》(都是中公新书)、《财政危机的构造》(东洋经济新报社)、《泡沫经济学》(日本经济报社)、《日本从发达国家脱离的日子》( President公司)以外,还有很多。 ———-

这里有个小tips~1296334825  备注:汇汇圈

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 1296334825@qq.com 举报,一经查实,本站将立刻删除。
如若转载,请注明出处:https://www.fx002.com/15723.html