家电品牌工业4.0B2B网站管理系统

扫一扫关注

澎湃圆桌|ChatGPT、人工智能与数字人文:传统学问的科技未来?

   2023-02-21 澎湃新闻64570
导读

美国人工智能公司OpenAI推出的聊天机器人ChatGPT“火”出了科技圈,也惊动了学术圈。当传统学问进入数字时代,以ChatGPT为代表的人工智能会改变人文学科的未来吗?澎湃新闻(www.thepaper.cn)邀请来自哈佛大学、北

   

美国人工智能公司OpenAI推出的聊天机器人ChatGPT“火”出了科技圈,也惊动了学术圈。当传统学问进入数字时代,以ChatGPT为代表的人工智能会改变人文学科的未来吗?

澎湃新闻(www.thepaper.cn)邀请来自哈佛大学、北京大学、南京大学、上海交通大学以及德国柏林马克斯·普朗克科学史研究所的五位学者,共同讨论ChatGPT及人工智能技术如何参与人文学科的研究与教学。这五位学者均为当下数字人文领域的中坚力量,他们曾接受历史学、哲学或计算机科学的博士训练,又在数字人文这一跨学科的领域中,将计算机工具与方法引入人文学科,也使科技工作者逐渐理解人文学科的学术语境。

圆桌嘉宾:

王宏甦,哈佛大学计量社会科学研究所研究员、“中国历代人物传记数据库”(China Biographical Database,简称CBDB)资深项目经理

王涛,南京大学历史系教授

陈诗沛,德国柏林马克斯·普朗克科学史研究所研究员

杨浩,北京大学人工智能研究院副研究员

赵思渊,上海交通大学历史系教授

来自人文学科的ChatGPT使用测评澎湃新闻:各位在人文学科相关的工作中用ChatGPT了吗?目前为止体验如何?

王宏甦(哈佛大学计量社会科学研究所研究员):我们在开发哈佛大学“中国历代人物传记资料库”(CBDB)的过程中,ChatGPT 和AI编程工具Copilot这类人工智能工具已经完全融入日常工作。我们会和 ChatGPT 讨论方案设计。比如上周的一个案例是,我和同事在讨论如何对百万级文件按照一定的结构进行整理,希望找出最优的程序设计逻辑。在讨论过程中,ChatGPT 也提出了建设性方案。在工作中我们会把 ChatGPT 当作平等的同事来讨论问题。

在程序设计和规范方面,ChatGPT 是一位非常有经验的同事。而在人文的问题上,我们当下很少使用 ChatGPT。比如下图是最近我们在工作的时候涉及的一个官职名称,“东北面朔方江陵道都统使”。这是十四世纪朝鲜王朝的官职,而 ChatGPT 给出了完全错误的说明:

受访者供图在我们的工作中,ChatGPT的使用场景是很明确的:能够快速验证的问题。比如,程序写得是否正确、程序的方案设计得是否合理,我们可以通过运行和测试,对 ChatGPT 的答案进行直接验证。王涛(南京大学历史系教授):我和几个同伴将于3月18日在南京召开一个研讨会——“ChatGPT与人文学科的挑战:人工智能对人文学科影响的跨学科会议”,我们请ChatGPT来撰写会议征稿启事,它在几秒钟内生成的会议通知完整准确、文从字顺,已经超出一般学生的水平。

ChatGPT撰写的会议通知刚开始上手的时候ChatGPT给我的感觉是惊艳。它对使用者提出的各种需求都能够给出有逻辑、符合一定预期的结果,让人震撼。而且,它能够应付各种语境、各种场景、各种方向上的需求。从OpenAI的官网介绍可以了解到,ChatGPT的功能其实不仅局限于问答机器人,而是一个多面手,可以编写程序、修改代码、撰写提纲、多语翻译等等。可以说,ChatGPT以一己之力,取代了程序员、翻译、律师、数据分析师、秘书、会计师等不同工种的职位。我们可以将ChatGPT当作一个非常智能的研究助理,是研究者大脑的延伸。从工具论的角度看,以ChatGPT为代表的人工智能产品的出现,跟汽车等交通工具在人类社会的出现,具有相似的意义。如果说现代交通工具是人类脚力的延伸,那么ChatGPT就是人类脑力的延伸。

因此,从积极的角度说,ChatGPT是在知识生产领域为人类提供服务,可以起到协助的作用,帮助使用者提高知识梳理的效率。但是,ChatGPT是否能够完全进行知识创新,特别是进行探索性研究,目前还看不到这种可能性。从人工智能的工作原理来看,ChatGPT的知识体系来自对人类现有知识结构的模型训练。它的能力边界,跟ChatGPT被投喂的数据在数量、丰富度、多样性等方面的因素密切相关。

在官方的介绍中,ChatGPT所依循的语言模型,数据来源时间截止2021年。理论上说,它对2021年之后人类社会的知识是一无所知的。而且,研究者已经发现,ChatGPT虽然是一个能够熟练进行“多语种”输出的平台,可以无缝在不同语言中切换,但是,在高频语言与低频语言之中的表现存在显著的不同。这是因为ChatGPT所接受的语言训练模型存在数量上的差异性,比如ChatGPT在英语语境中的表现更加智能,而在中文语境的表现只能算是差强人意。它甚至还存在中文知识的盲区。

我曾经试探ChatGPT,是否知道“地上本没有路,走的人多了,也便成了路”这句话出自何处。ChatGPT倒也坦率,它说出了鲁迅的大名,但并不知道来自哪篇文章。可见,在中文语料的训练上,ChatGPT还存在缺陷。不过,随着微软与OpenAI的合作,ChatGPT将获得升级,能够得到更加即时的网络信息。

但是,ChatGPT仍然是一个“任务导向性”的工具,它只能对使用者发出的指令进行反馈,还不存在“主动性”。所以,是否能够用好ChatGPT,还是要基于用户的设计。最明显的一点在于,为了规避伦理上的问题,ChatGPT的后台设置了一些屏障,用户不能就违背公序良俗的问题发问。但是,用户依然能够通过间接提问的方式,“诱导”ChatGPT给出答案。可见,ChatGPT对“道德”并无感知。

陈诗沛(德国柏林马克斯·普朗克科学史研究所研究员,台湾大学计算机博士):ChatGPT作为一个产品成功吸引了大众的目光,因为它把“Chat”即“聊天”的部分做得非常好,生成的文章或回答,起码在格式上看起来很完美。

但我觉得大家对它的评价过高了。人们觉得它很“智能”,会“思考”,但事实上它只是在“模拟”,模拟得非常逼真,以至于大家觉得它好像是一个真的机器“人”。OpenAI的官网说ChatGPT是“Optimizing Language Models for Dialogue”,一个为聊天对话优化的语言模型。语言模型的概念是,你向它提供很多文字(文章),之后它对这些大量的文句进行整理(大致上是基于统计),以预测下一个文字或句子应该是什么。ChatGPT这个语言模型产品结合强大的类神经网络以及大量文本,完成得很好,但基本上它做的只有一件事——将数据库里的文章拆分成句子,通过你提出的问题,去预测和挑选成功几率最高的下一个句子,再生成答案反馈给你。

我认为ChatGPT跟大部分人想象中的“智能”还有很大落差,它的实作中还没有人工智能学界 (AI) 中所谓的 “推理”环节 (reasoning),也没有大部分人想象中的“自主学习”,它只是文字的堆砌、基于统计的文献整理,它并没有理解到语意,因此它从大量训练文本中整理出来的回答有可能是错的。

 
(文/小编)
 
反对 0 举报 0 收藏 0 打赏 0 评论 0
0相关评论
免责声明
• 
本文为小编原创作品,作者: 小编。欢迎转载,转载请注明原文出处:https://www.jdpp168.cn/news/show-4716.html 。本文仅代表作者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,作者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们。