Skip to content Skip to footer

AI 到底是怎么回事:给那些不是超级书呆子的人的简短解释

image-20231128201416766

在最近OpenAI的混战政客们关于“人工智能灭绝风险”的声明,以及人工智能投资者/慈善家山姆·班克曼-弗里德(Sam Bankman-Fried)最近因欺诈而受审之间,有很多关于人工智能的危险的讨论,人工智能监管和最近一场名为“有效利他主义”的运动。

在试图向我的朋友和家人解释这个令人费解的兔子洞但失败后,我觉得有必要写一个简化的解释,说明主要人工智能公司到底发生了什么。我希望科技泡沫之外的人可以免于亲身接触这些内容的精神伤害。

一开始,有一群科学爱好者、作家和计算机科学家。在意识到技术变得越来越强大并观看了太多的科幻小说之后,他们开始非常担心人工智能。具体来说,他们害怕先进的计算机会让人工智能变得有知觉并获得神一样的力量,包括如果它愿意的话,有可能终结整个人类。这个假设的改变世界的事件将被称为奇点

与此同时,来自牛津大学和其他名校的少数特权哲学家聚在一起,对自己说了这样的话:

“慈善事业很酷,但我们可以做得更好。我们有技术。我们有能力优化我们对慈善机构的捐赠,使它们非常有效!让我们想出一种新的道德数学,这样我们就可以客观地计算出支持和让世界变得更美好的最佳原因!

因此,有效利他主义的思想诞生了。

这个概念在理论上听起来很棒——我也喜欢数学、优化和帮助别人!这些公式支持的一些早期原因是非洲的动物权利和疾病预防,这对这位非裔美国素食主义者来说听起来都很棒。但除了这些成功之外,将有效的利他主义付诸实践很快就成了问题,尤其是在人工智能介入之后。方法如下:

  1. 有效的利他主义者(称为 EA)可以设计道德数学公式并自行运行数字。
  2. 根据定义,道德数学公式认可的任何项目都会自动被视为世界上最重要的事业之一。这对所有相关人员的自尊心都很好。
  3. EA 了解了 The Singularity 后,将“Evil God AI”插入了他们的 Ethical Math 公式中,并发现阻止它杀死我们是人类历史上最重要的项目这对所有相关人员的自尊心都很好。这对一些相关人员的钱包来说也很棒,尤其是当这些人在人工智能安全领域工作并且已经是像 Sam Bankman-Fried 这样富有的 EA 的朋友时。不幸的是,对于那些担心今天人工智能引起的实际问题的人来说,这并不是那么好。
  4. 接下来,有效的利他主义者做了更多的道德数学,发现最有效的花钱方式之一是招募更有效的利他主义者。我们的想法是,这些新的 EA 将把他们的时间和金钱花在最有效的事业上,同时有效地招募更多的 EA。这对所有相关人员的自尊心都很好。
  5. 然后,他们进行了一些未来的人口预测,并开始想象他们的伦理数学公式将如何影响 10 年、100 年、1000 年甚至 10,000 年后的世界,并将其称为长期主义。这些预测使得伦理数学对于阻止邪神人工智能变得更加重要,同时也发挥了其他牵强附会的想法,如殖民太空。
  6. 由于阻止邪神人工智能是历史上最重要的原因之一,EA 已经开始游说政府对大型人工智能系统进行严格监管。这对于目前试图制作 Good God AI 的大公司的银行账户来说非常有用,而对他们的竞争对手来说却很烦人。

这种伦理数学的一个副作用是,一个邪恶的上帝人工智能杀死所有人成为一个比气候变化“只是”杀死或流离失所数百万人更糟糕的问题。对于有钱的技术人员来说,这是一个问题,他们有能力逃避气候变化,但不认为他们可以逃避邪恶的上帝人工智能。幸运的是,善良的上帝人工智能可以通过其超级智能解决气候变化问题,这使他们得出结论,使用大量电力试图建造它实际上对地球有益

利用数学和技术拯救人类的有效利他主义宣传也非常适合雄心勃勃的大学生的自尊心,这反过来又创造了一个良好的招聘环境。例如,耶鲁大学由学生经营的“存在风险倡议”俱乐部最近拒绝了一名潜在成员,理由是她缺乏经验,并告诉她听更多与EA相关的播客。

在 2023 年,我们现在所处的位置是,在这个重叠的有效利他主义/人工智能安全网络中,一部分人相信上帝人工智能很快就会存在,可能以 GPT 的形式存在。这在运动中引起了关于如何通过“使其与人类价值观保持一致”来控制上帝人工智能的运动中的分裂,如果有的话。这个群体中的悲观主义者目前正在对世界末日失去理智,而乐观主义者则对人工智能引导的人类新时代感到兴奋。

OpenAI陷入了这场战斗的中间。该公司成立于2015年,是一家非营利组织,几年后重组并接受了Microsoft数十亿美元的投资。这导致了关于公司在安全和追求利润方面方向的分歧——这些分歧几乎可以肯定是山姆·奥特曼被解雇的原因。