时间:2024-05-04
科研问题(Research Issues)
1)研究目标:人工智能研究的目标,应该是创造有益(于人类)而不是不受(人类)控制的智能。
2)研究经费:投资人工智能应该有部分经费用于研究如何确保有益地使用人工智能,包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如:
● 如何使未来的人工智能系统高度健全(“鲁棒性”),让系统按我们的要求运行,而不会发生故障或遭黑客入侵。
● 如何通过自动化提升我们的繁荣程度,同时维持人类的资源和意志。
● 如何改进法制体系使其更公平和高效,能够跟得上人工智能的发展速度,并且能够控制人工智能带来的风险。
● 人工智能应该归属于什么样的价值体系?它该具有何种法律和伦理地位?
3)科学与政策的联系:在人工智能研究者和政策制定者之间应该有建设性的、有益的交流。
4)科研文化:在人工智能研究者和开发者中应该培养一种合作、信任与透明的人文文化。
5)避免竞争:人工智能系统开发团队之间应该积极合作,以避免安全标准上的有机可乘。
伦理与价值(Ethics and values)
6)安全性:人工智能系统在它们的整个运行过程中应该是安全和可靠的,而且其可应用性和可行性应当接受验证。
7)故障透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。
8)司法透明性:任何自动系统参与的司法判决都应提供令人满意的司法解释,以被相关领域的专家接受。
9)责任:高级人工智能系统的设计者和建造者,是人工智能使用、误用和行为所产生的道德影响的参与者,有责任和机会去塑造那些道德影响。
10)价值归属:高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致。
11)人类价值观:人工智能系统应该被设计和操作,以使其与人类尊严、权力、自由和文化多样性的理想相一致。
12)个人隐私:在给予人工智能系统以分析和使用数据的能力时,人们应该拥有权力去访问、管理和控制他们产生的数据。
13)自由和隐私:人工智能在个人数据上的应用不能允许无理由地剥夺人们真实的或人们能感受到的自由。
14)分享利益:人工智能科技应该惠及和服务尽可能多的人。
15)共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类。
16)人类控制:人类应该选择如何和是否让人工智能系统去完成人类选择的目标。
17)非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的社会和公民秩序,而不是颠覆。
18)人工智能军备竞赛:致命的自动化武器的军备竞赛应该被避免。
更长期的议题(Longer-term Issues)
19)能力警惕:我们应该避免关于未来人工智能能力上限的过高假设,但这一点还没有达成共识。
20)重要性:高级人工智能能够代表地球生命历史的一个深刻变化,人类應该有相应的关切和资源来进行计划和管理。
21)风险:人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须有针对性地计划和努力减轻其可预见的冲击。
22)递归的自我提升:被设计成可以迅速提升质量和数量的方式进行递归自我升级或自我复制的人工智能系统,必须受制于严格的安全和控制标准。
23)公共利益:超级智能的开发是为了服务广泛认可的伦理观念,并且是为了全人类的利益而不是一个国家和组织的利益。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!