道德如何制造更好的AI产品?

经过乔纳森·罗特(Jonathan Rotner)
全球压力以迅速发展和部署AI的理解和减轻影响。我们认为,并建议通过负责任地开发AI导致AI更好,并与美国的经济和国家安全利益保持一致。

下载资源

人工智能(AI)技术的增长已迅速扩展了可用的商品和服务类型,从个人便利到专业援助再到防御和安全能力。在有限的情况下,AI在分析模式,通过大量数据并迅速响应输入方面非常强大。然而,随着人工智能继续渗透并融入用户的生活,这可能导致重大的道德问题。这些担忧的范围可能从人们发现令人毛骨悚然的电子邮件答复中,即模仿个人个性,到对深层摄影所造成的国家安全影响,谴责驱动AI平台的私人数据的不当行为,担心为AI失去工作,抗议AI,抗议如何批评surveillance so significantly impacts minority groups, and fear of losing one’s life to AI. These examples show that there continue to be fielded systems that result in real harm, despite opportunity for employing better practices and lessons learned.

速度是维持现状的重要动机:对于发展AI成为第一个市场的公司的速度,以及美国(美国)国家安全代表赢得对中国的AI军备竞赛的速度。这些市场和国际地缘政治压力促进了快速解决方案,结果,复杂的问题纯粹是技术方法,并且在没有充分评估和监督的情况下部署了产品。更快地移动时,就有更少的时间来测试,理解和采取行动,并采取风险和影响评估,安全性和隐私问题,以及适当校准对AI系统的信任的机会。包括所有这些要素都将产生更负责任和道德的产品。简而言之,决定迅速采取行动或负责任地生活在紧张局势中。

任何解决方案的基本要素是证明道德AI产品是更好的AI产品。公共和私人政策可以塑造AI的发展和部署,从而导致道德AI同时提高经济和国家安全成果。然后,美国可以利用现有的国际对AI产品的需求。因此,本文中的建议针对两个小组:开发和部署AI的组织以及可以实施变革的政策制定者。

如果美国制定了这些实用和有影响力的步骤,那么新的AI产品和治理可以反映他们试图解决的问题的社会技术复杂性,并努力赋予人们使用和影响AI的人的能力。新的AI产品和治理可以回应不断增长的消费者基础,越来越了解不受限制的AI的缺点。新的AI方法可以扩大AI劳动力,并为更强大的经济做出贡献(这也加强了国内安全)。新的AI方法可以通过建立有利于促进西方民主原则的规范来帮助美国维持国际领导和安全。