资讯公告
OpenAI资助杜克大学100万美元开展人工智能
发布时间:2024-12-30 发布者:FebHost

OpenAI资助杜克大学100万美元开展人工智能


OpenAI 向杜克大学的一个研究团队提供了 100 万美元的资助,用于研究人工智能如何预测人类的道德判断。


该倡议凸显了人们对技术与道德交叉的日益关注,并提出了一些关键问题: 人工智能能否处理复杂的道德问题,或者道德决策是否仍应由人类作出?


杜克大学道德态度与决策实验室(MADLAB)由伦理学教授沃尔特-辛诺特-阿姆斯特朗(Walter Sinnott-Armstrong)和共同研究员雅娜-沙伊奇-博格(Jana Schaich Borg)领导,负责 “打造道德人工智能 ”项目。该团队设想了一种 “道德 GPS”,一种可以指导道德决策的工具。


其研究横跨计算机科学、哲学、心理学和神经科学等多个领域,旨在了解道德态度和决策是如何形成的,以及人工智能如何促进这一过程。


人工智能在道德中的作用


MADLAB 的工作研究人工智能如何预测或影响道德判断。试想一种评估道德困境的算法,例如在自动驾驶汽车的两个不利结果之间做出决定,或者为符合道德规范的商业行为提供指导。这些场景凸显了人工智能的潜力,但也提出了一些基本问题: 谁来决定指导这类工具的道德框架,是否应该信任人工智能来做出具有道德影响的决定?


OpenAI 的愿景


该基金支持开发预测人类在医疗、法律和商业等领域道德判断的算法,这些领域经常涉及复杂的道德权衡。虽然人工智能前景广阔,但在把握道德的情感和文化细微差别方面仍有困难。当前的系统擅长识别模式,但缺乏道德推理所需的深层理解。


另一个令人担忧的问题是如何应用这项技术。虽然人工智能可以帮助做出拯救生命的决定,但将其用于防御战略或监视却会带来道德困境。如果不道德的人工智能行为符合国家利益或社会目标,那么这些行为是否合理?这些问题凸显了将道德嵌入人工智能系统的困难。


挑战与机遇


将道德融入人工智能是一项艰巨的挑战,需要跨学科合作。道德并不具有普遍性,它是由文化、个人和社会价值观决定的,因此很难将其编码到算法中。此外,如果没有透明度和问责制等保障措施,就有可能使偏见长期存在或促成有害的应用。


OpenAI 对杜克大学研究的投资标志着在理解人工智能在伦理决策中的作用方面迈出了一步。然而,征程远未结束。开发者和政策制定者必须共同努力,确保人工智能工具符合社会价值观,强调公平性和包容性,同时解决偏见和意外后果。


随着人工智能在决策中变得越来越不可或缺,其道德影响也需要引起关注。像 “打造有道德的人工智能 ”这样的项目为我们提供了一个起点,让我们能够驾驭复杂的局面,在创新与责任之间取得平衡,从而塑造一个技术服务于更大利益的未来。

文章相关标签: OpenAI 杜克大学 人工智能
购物车