名家观点

人工智能算法需同理心/Project Syndicate

Tan KW
Publish date: Tue, 17 Jan 2023, 11:40 PM

事后看来,2022年将被视为人工智能赢得街头公信力的一年。

总部位于旧金山的研究实验室OpenAI发布的ChatGPT人工智能聊天机器人程式,引起了极大的关注,还催生了更宏大的问题。仅仅面世第一周ChatGPT,就吸引了100多万用户,被用来编写计算机程式、作曲、玩游戏和参加律师执业资格考试。学生们发现它可以写出值得评为B等的合适论文(只是写作速度较慢)--老师也发现了这一点,令他们大为震惊。

ChatGPT远远算不上完美,就像B等学生论文远不完美那样。它所提供信息的可靠性,得取决于它可以获取的信息--这些信息来自互联网。而它如何使用这些信息则取决于它所受的训练,其中包括监督式学习,或者换句话说就是由人类提出和回答的问题。

ChatGPT对其可能答案的权重来自人类对其回复进行评分的强化式学习。ChatGPT的数百万用户每次提出问题时,都会被要求对机器人的回答点击赞成或反对。正如教师的有用反馈,有时可以教B质量的学生写一篇A质量论文一样,ChatGPT最终获得更好成绩,也不是没有可能的。 这种初步发展的人工智能,迫使我们重新思考哪些任务可以在最少的人工干预下完成。如果人工智能能够通过律考,那有什么理由不让它去写法律摘要或提供合理的法律建议?

如果人工智能可以通过我妻子的行医执照考试,又有什么理由不让它去诊断病人或提供合理的医疗建议?

失业速度将更快?

一个明显的影响,是失业的速度将比过去的自动化浪潮更快,而剩下的工作也将更快地被重组,另外会被自动化淘汰的岗位,将不仅局限于低技能和低工资劳动者。

而不那么明显的,则是谁不会受到技术型失业的影响。人工智能将无法模拟哪些人类特质(如果有的话)?这些特质是与生俱来的,还是可以后天养成的?

最安全的工作,将是那些需要共情和原创性的工作。共情是理解和分享他人感受和情绪的能力。它创造了人与人间的同情和理解,而这些正是社会互动和情感健康的基础。它在困难状况和艰难时期尤为有价值。这就是为什么宗教领袖、照顾他人者和伤痛安抚师,都极为重视共情。

可以想象,人工智能可以在面部识别软件的帮助下,学习识别对话者的感受(它可以学习所谓的“认知共情”)。但它显然不能像我的妻子在她的共情时刻分享我的感受那样去分享它们的感受(它不能学习“情感共情”)。这也是人工智能无法取代我的妻子、医生或拉比的其中一个原因。

 

共情能否传授习得?

关于情感共情是否可以培养和传授,目前还未能达成共识。一些人认为情感共情,是由大脑中无法人为刺激或控制的镜像神经元触发的。共情只是我们所经历而非可习得的东西。由此可见我们中的一些人,会比其他人更有能力成为照顾他人者和伤痛安抚师。

而其他研究人员则认为,这种情绪反应确实是可以传授的。甚至还有一家名为Empathetics,Inc.(共情股份有限公司)的临床医生培训企业。如果这是真的,那就会有更多的人可以从事需要情感共鸣且不受自动化冲击的工作。

但如果人类可以学会情感共鸣,那么为什么算法不能呢?有一种观点认为需要情感共鸣的工作不会受到自动化影响,假定人们能够分辨出真实和模拟出来的共鸣。

而原创性指的是做一些以前没有做过的事情,比如在完全不同于以往事物的情况下创作一幅画、打造一件艺术作品或者撰写一篇报纸评论。原创性不同于创造性,因为后者包含了以新颖的方式结合各类已有元素。

数据配对也是原创?

另一款OpenAI产品DALL·E能够依照文本描述(“一幅苹果画”或“留着胡子的‘蒙娜丽莎'”)去生成复杂的图像。这在艺术家中引起了一些恐慌。但它的作品是通过文本和图像配对的大型数据集得出的,这算是原创艺术品吗?

这值得怀疑的,因为原创是绘制一个不同于以往任何作品的审美形象,而不是把与现有文本相关联的现有视觉元素结合起来。那些富于原创性的艺术家或许没什么好害怕的,当然,前提是观众能够将原创艺术品与其他作品区分开来。

同样,对于原创性是与生俱来的还是后天习得的目前未有共识。答案很可能是两者兼而有之。

我们应该担心到什么程度?在ChatGPT中输入“为世界报业辛迪加撰写一篇800字的人工智能评论”,然后自己去评判吧。

Project Syndicate版权所有

www.project-syndicate.org

 

 

https://www.enanyang.my/名家专栏/人工智能算法需同理心project-syndicate

Discussions
Be the first to like this. Showing 0 of 0 comments

Post a Comment