OpenAI向杜克大学的一个研究团队提供了100万美元的资助,以研究人工智能如何预测人类的道德判断。
这一举措凸显了人们对技术与伦理交叉领域的日益关注,并提出了一些关键问题:人工智能能否处理复杂的道德问题,或者伦理决策是否仍应由人类来决定?
杜克大学的道德态度和决策实验室(MADLAB)由伦理学教授沃尔特·辛诺特-阿姆斯特朗(Walter Sinnott-Armstrong)和共同研究员贾娜·沙奇·博格(Jana Schaich Borg)领导,负责“制造道德人工智能”项目。该团队设想了一种“道德GPS”,一种可以指导道德决策的工具。
它的研究跨越多个领域,包括计算机科学、哲学、心理学和神经科学,以了解道德态度和决策是如何形成的,以及人工智能如何为这一过程做出贡献。
人工智能在道德中的作用
MADLAB的工作是研究人工智能如何预测或影响道德判断。想象一下,一个评估道德困境的算法,比如在自动驾驶汽车的两种不利结果之间做出决定,或者为道德商业实践提供指导。这样的场景强调了人工智能的潜力,但也提出了一些基本问题:谁来决定指导这些类型工具的道德框架,人工智能是否应该被信任做出带有道德含义的决定?
OpenAI的愿景
该基金支持算法的开发,用于预测医疗、法律和商业等领域的人类道德判断,这些领域经常涉及复杂的道德权衡。虽然前景光明,但人工智能仍然难以把握道德的情感和文化细微差别。目前的系统擅长识别模式,但缺乏道德推理所需的更深层次的理解。
另一个问题是如何应用这项技术。虽然人工智能可以帮助做出拯救生命的决定,但它在防御战略或监视中的应用会带来道德困境。如果不道德的人工智能行为符合国家利益或符合社会目标,它们是否合理?这些问题强调了将道德嵌入人工智能系统的困难。
挑战与机遇
将伦理融入人工智能是一项艰巨的挑战,需要跨学科的合作。道德不是普世的;它受到文化、个人和社会价值观的影响,因此很难将其编码为算法。此外,如果没有透明度和问责制等保障措施,就有可能使偏见永久化或使有害应用成为可能。
OpenAI对杜克大学研究的投资,标志着人们在理解人工智能在道德决策中的作用方面又迈出了一步。然而,旅程远未结束。开发人员和政策制定者必须共同努力,确保人工智能工具符合社会价值观,强调公平和包容性,同时解决偏见和意想不到的后果。
随着人工智能在决策中变得越来越不可或缺,它的伦理含义需要引起关注。像“制造道德人工智能”这样的项目为导航复杂的环境提供了一个起点,平衡创新与责任,以塑造一个技术为更大利益服务的未来。
作者:Muhammad Zulhusni
链接:https://www.artificialintelligence-news.com/news/openai-funds-1-million-study-on-ai-and-morality-at-duke-university/
著作权归作者所有。
声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:152 6451 3609,邮箱:1027830374@qq.com
2025-01-13 08:06:08
Muhammad Zulhusni