专家观点|当机器人拥有感情,背后有何伦理风险?
8月22日,在2024世界机器人大会期间,北京具身智能机器人创新中心首发了具身智能服务机器人“天轶”。值得关注的是,“天轶”搭载了具身智能情感大模型,其中的情感模型源于北京大学计算机学院情感与认知智能机器人实验室主任王韬研究员带队研发的情感与认知技术,也就是说,“天轶”可以对人类情感进行反应。
据了解,人形机器人是具身智能机器人的一种。未来是否能将情感模块赋予更多人形机器人?一旦人形机器人拥有了与人类相似的情感,是否需要探讨其伦理边界?针对这些问题,新京报记者对王韬进行了专访。
北京大学计算机学院情感与认知智能机器人实验室主任王韬。受访者供图
通过建模驱动机器人“学习”情感
新京报:“天轶”机器人搭载了具身智能情感大模型,这让机器人实现了什么功能?
王韬:北京大学计算机学院情感与认知智能实验室成立于2017年,一直研究如何让机器人更具有情感能力、交互能力,让它通过认知环境,更重要的是认知人,成为跟人打交道的机器人。以后的人形机器人不仅是在工厂“上班”,更多的应该是和人打交道。
因此,这种类型的机器人一定要能读懂人的心理或者心情,读懂人的喜怒哀乐,还要能感知人们更加细微和丰富的情感与认知状态。这是我们实验室一直在研究的方向,我们称其为情感计算,我们在这个领域陆续发布了一些期刊文章,在智能机器人上实现了许多实际相关应用,也取得了国际上的一些关注与认可。
机器人的情感计算有很多重要应用场景。例如,搭载了情感计算模型的机器人如果陪伴我们去市场买菜,它可以捕捉到我们的表情和注意目标,分析出我们更喜欢哪种蔬菜;它也可以在家陪伴老人,如果发现老人闷闷不乐,它会做出一些正确的应对反应,排解老人不快的情绪。此外,还可以监控人的心率变化等生理指标,可以用作某些特殊情景的判定,甚至还可以用作健康监控。
今年6月起,我们与北京具身智能机器人创新中心合作,成立情感智能应用联合实验室,已使“天轶”具有情感交互能力,让它能更好地服务人。
现在我们看到的大多是冷冰冰的机器人,未来我们希望不仅有“天轶”,还有更多的情感机器人,它们会像人一样拥有比较细腻的情感识别与反应能力。
新京报:工业机器人需要不断学习掌握各种工作技能,让机器人拥有情感也需要学习吗?
王韬:机器人一定要学习,但是这种学习跟我们现在看到的机器人学习抓取物品不太一样,它需要特殊的学习方法,我们需要在机器人的“大脑”里建模,不能仅仅对机器人进行数据驱动,更好地建模,使其能够更好地理解和学习是必要的。
机器人的情感训练在这方面的问题更加突出,因为人的情感非常复杂,也不存在大规模的具有全面情感标注的数据集,所以我们才要不断推进这一领域的研究。
对情感机器人来说,设计者的伦理道德十分重要
新京报:如果将人形机器人赋予情感功能的话,是否需要探讨其伦理边界?
王韬:首先,我们要明确情感分成三个方面,第一个是例如那些长得非常像人的机器人,它们是能够表达情感的机器人,现在很多机器人在这方面做得很好;第二个是机器人对人的情感识别,它能知道“眼前”的人是什么情感,比如悲伤、生气、高兴、沮丧等;第三个是机器人的“情商”,比如说它识别出来这个人心情不好,那么它应该怎么应对才能让这个人心情变好。
在上述三个方面中,机器人的情感识别和“情商”非常难,但是我们一直在研究这一领域,希望在今年年底或者明年年初能够有所突破。
其次我们讨论伦理边界。当机器人能够识别人类情感的时候,它可以做出自己的反应,比如发现一个人心情不好时,机器人是表现出关怀还是说教,或者其他的方式,这就涉及机器人设计者的伦理。
我一直认为,机器人的伦理不是机器人本身的伦理,而是设计者、数据工程师、设计架构人员等人的伦理。这跟我们教育孩子是一样的,家长的思想、伦理影响孩子的成长。
对机器人来讲,即使到了通用人工智能阶段,设计者的伦理也很重要,对于情感机器人尤其重要,专家观点|当机器人拥有感情,背后有何伦理风险?这体现了设计者的水平,也体现了设计者的伦理道德。
新京报:人类对于情感机器人是不是同样需要伦理边界?
王韬:这是相互的影响。情感机器人对人类的情感产生反应,这个时候我们就需要注意了,尽管情感机器人能够读懂人的情感并用情商进行反应,但就目前而言,机器人还不存在像人类一样的“内心情感”。
所以我们需要关注一个问题——机器人的情感模型,尤其是神经网络模型,往往并不完全清楚模型内部发生了什么,而更多是看到普通情况下模型对外的表现形式,那么机器人有没有可能在模型内部产生一种不好的反应呢?这是需要我们特别关注的问题。这又回到了刚才的话题,也就是设计者的伦理和技术水平。所以至少从目前来看,设计者是非常重要的。
新京报:人形机器人对人工智能伦理会带来哪些挑战?如何应对?
王韬:人形机器人是人工智能的一个载体,人工智能的挑战和伦理就是人形机器人的挑战和伦理。当然,如果有一天人形机器人的外形真的与真人外形无限接近,甚至产生了混淆的时候,那么将会产生一些新的伦理挑战。
若有志于机器人全面拟人化,研发人员仍需探索
新京报:在这次机器人大会上,我们看到很多以真人为原型的机器人。人形机器人需要逼真的拟人化吗?
王韬:机器人可以分成两类,第一类是不怎么和人打交道的机器人,例如工业机器人。从科技发展角度来讲,工业机器人不一定都是人形机器人。第二类是与人打交道的机器人,我认为最好还是人形。
这其中有两个原因,一方面是人类天然地对人形的产物沟通效率更高,另一方面,机器人要跟人一起生活或服务于人,并且要在人的环境中进行交互,如果它不太像人的话,可能很难适应这个环境。
对于是否需要逼真拟人化,人形机器人设计成什么样的外貌,说到底还是设计者的问题。有位科学家提出了恐怖谷效应,提出机器人长到与人接近的时候,是很恐怖的,但是如果一旦突破了边界,机器人将不再恐怖。从现阶段以真人为原型的人形机器人的外观来看,还没有突破恐怖谷效应,所以有志于机器人全面拟人化的研发人员还需要不断探索。就我个人而言,我还是喜欢长得像科幻电影或者动画片里那些可爱机器人的样子,事实上“天轶”机器人就没有逼真拟人化。
新京报记者吴婷婷
编辑白爽校对杨许丽