ChatGPT一路狂飙,谷歌百度紧随其后:人工智能的伦理挑战?
ChatGPT火爆全球,自去年11月底上线以来,活跃用户数量节节攀升,多家互联网巨头都坐不住了,迅速加入了这场“技术赛跑”。北京时间2月7日,谷歌CEO桑达尔·皮查伊宣布了自家的AI对话式机器人“Bard”(吟游诗人)。就在同一天,百度在其微信公众号官宣:大模型新项目文心一言(英文名ERNIE Bot)敬请期待。
图书推荐
近年来,以机器学习(machine learning),尤其是深度学习(deep learning)为代表的新一代人工智能技术不断朝着更加先进、复杂、自主的方向发展,这给经济和社会发展带来了新的变革性机遇。人工智能应用迎来“物种大爆发”,日益渗透各行各业和人类生活的方方面面,有望塑造新型的经济和社会形态。
作为引领人工智能技术加速变革的重要法宝,机器学习是一把双刃剑。一方面,它可以帮助人工智能摆脱对人为干预和设计的依赖,凭借自身强大的数据挖掘、训练和分析能力,完成算法模型的自主学习和自我更迭,使人工智能在学习思维上无限接近于人类大脑,也被认为是人工智能由弱人工智能迈向强人工智能形态的关键性因素。更深入地说,深度学习即深度神经网络算法(deep neural network)是21世纪人工智能发展的“制胜法宝”。神经网络的特征在于,其无须经过特定的编程,就能自动从偌大的数据库中学习并构建自身的规则体系。这样的自动生成逻辑是算法工程师的福音,能够极大地解放他们的生产力,并且可以适用于更加多元化的应用场景,形成AI的自主学习、自我创造以及自动迭代机制。
另一方面,机器学习又日益暴露出人工智能在自动化决策中的伦理问题和算法缺陷。实际上,如同一个硬币的两面,深度学习算法既有其先进、独特的更迭优势,又有着无可回避的难解释性和黑箱性。在深度学习领域,基于人工神经网络结构的复杂层级,在人工智能深度学习模型的输入数据和输出结果之间,存在着人们无法洞悉的“隐层”,深理于这些结构底下的零碎数据和模型参数,蕴含着大量对人类而言都难以理解的代码和数值,这也使得人工智能的工作原理难以解释。因此,深度学习也被称为“黑盒”算法。这些所谓的“黑盒”模型可能过于复杂,即使是专家用户也无法完全理解。早在1993年,学者Gerald Peterson就指出,除非人类能够说服自己完全信任这项技术,否则神经网络算法将不会被应用于关键领域,而增进信任的核心在于使人类能够理解人工智能的内部运行原理。该论断直到今天都仍为人们所接受和认同。当前,人脸识别、语音识别、用户画像、自动驾驶等智能技术已风靡全球,以ChatGPT为代表的深度学习算法被人们奉为圭臬,并迅速走进公众视野,人工智能正迎来前所未有的应用热潮。可以预见的是,随着人工智能技术在各个领域的深度融合,未来人类的生产生活场景都会逐渐离不开人工智能的应用,高度智能化的人机协同将成为新的范式。在此趋势下,人工智能对于人类生活的影响程度也会日益加深。人们要想用好人工智能,使之为自身创造价值,就必须走近人工智能,理解人工智能。当公众可以理解人工智能,人工智能将不再是公众眼中的洪水猛兽,而是一个具有极强创造力、执行力及忠诚度的“好伙伴”,公众就会希望自己的想法能被人工智能执行,人工智能的决策能为自己理解,从而形成人机之间的友好交流机制。(整理/李源)
京东购书链接:https://item.jd.com/13334085.html