联合国人工智能高层顾问机构专家曾毅:不是存在商业机遇的地方就是人工智能发展的走向
红星资本局9月6日消息,9月5日-7日,2024外滩大会在上海举办。大会期间,联合国人工智能高层顾问机构专家、北京人工智能安全与治理实验室主任、中国科学院自动化研究所研究员曾毅接受了红星资本局等媒体的采访。
曾毅呼吁,应当增强人工智能创业者的自律自治和伦理安全的意识,人工智能如果成为人类的帮手,那必须负责任去塑造人工智能技术本身,而不要随人工智能的野蛮的生长,误用、滥用、恶用给世界带来不可预计的一环。
曾毅认为,人工智能现在是一个看似智能的信息处理工具,解决问题的方式千差万别,处理的机制也是因人而异。这就导致它并非“中立”。
“很多人可能不会同意我的观点,他们会说人工智能技术就是中立的,但我认为不是,人工智能的起点是数据和算法。这两件事情都是有可能产生偏见的。数据来自社会,是对于人类行为的记录。所以学习了人类数据的人工智能不仅学到了人类的偏见,还会放大这种偏见。”
他表示,联合国人工智能高层顾问机构专家曾毅:不是存在商业机遇的地方就是人工智能发展的走向我们希望人工智能能够“知善知恶”,最后让它“为善去恶”,但现在人工智能连前者都做不到,所以首先要做的是让人工智能合乎伦理。很多技术在往这个方向走,但有很多困难。
曾毅举例了曾做的一项研究,拿100个问题给生成式大模型GPT4回答,99%都答对了,再进一步把每一个问题换100种方法去问,即变成1万个问题再问GPT4,这时候跟人类的伦理道德价值观一致的只有64%。
他提醒,当人工智能变得越来越强大的时候,它甚至可以采用欺骗人类的策略。“这不是一个天方夜谭,‘欺骗’是人类的一个策略,互联网上的大量数据存在欺骗,所以人工智能会习得人类这样一个行为,不是说人工智能很聪明,是人工智能通过算法提取出来了这样一个映射关系。”
他表示,目前没有任何一个人工智能发展途径是绝对安全的,也不能够保证人工智能在计算演化的过程中不会涌现出来负面行为,“所以对于人工智能的发展,我们希望它处理信息的时候能够在机制上更接近人,但这并不代表当智能不断演化的过程中,可能出现的风险我们是完全可控的。并不存在绝对的风险。”
曾毅强调,人工智能不会是人类的对手,前提是要通过负责任地研发和使用人工智能,将人工智能塑造为我们的帮手。
“其实人工智能作为一个信息处理工具能够做到的事情并没有大家想象的那么多,现在阶段,它在每一项工作当中都会发挥一定的作用,但都不是颠覆性的作用。”
曾毅提到,现在更多的人都在探索人工智能的可能性,探索机遇、技术极限,但是对于潜在风险以及如何解决,实际投入太少。
在他看来,不是存在商业机遇的地方就是人工智能发展的走向,开发安全的人工智能、负责任的人工智能应该变成所有人工智能从业者的一个内在基因,对从业者和创新来讲都应该是一个必然题。
“相比在2018年、2019年之前的人工智能企业,现在绝大多数人工智能企业都认识到了伦理和安全的风险,但我们需要的不仅仅是提升这方面的意识,更关键的是采取行动使得人工智能的发展更合乎伦理、具有道德。”
红星新闻记者王田
编辑肖世清