AI的洗礼者和走私者_案例展示_安博体育(官方)APP下载/IOS/Android通用版/手机APP下载
AI的洗礼者和走私者
发布日期: 2024-09-20 05:06:08 来源: 案例展示

  洗礼者是天真的理想主义者,走私者是愤世嫉俗的操作者,但走私者会获得胜利。

  幸运的是,我在这里给大家带来好消息:人工智能不会毁灭世界,事实上它可能拯救世界。

  首先,简要介绍一下AI是什么:它是将数学和软件代码应用于教会计算机以类似于人类的方式理解、综合和生成知识的技术。人工智能就像任何其他计算机程序一样——它运行、接收输入、处理数据并生成输出。人工智能的输出在许多领域都很有用,包括编程、医学、法律和创意艺术。它是由人拥有和控制的,就像任何其他技术一样。

  关于人工智能的简短描述:它不是会突然活过来并决定杀害人类或毁灭一切的杀人软件和机器人,就像电影中所展现的那样。

  社会科学在许多十年和成千上万的研究中得出的最为验证的核心结论是,人类智能可以在生活的每个方面取得更好的结果。更聪明的人在几乎所有活动领域都能取得更好的成就:学术成就、工作表现、职业地位、收入、创造力、身体健康、寿命、学习新技能、处理复杂任务、领导能力、创业成功、冲突解决、阅读理解、金融决策、理解他人的观点、创意艺术、育儿成果和生活满意度。

  此外,人类智能是我们几千年来用来创造我们今天生活世界的杠杆:科学、技术、数学、物理学、化学、医学、能源、建筑、交通、通信、艺术、音乐、文化、哲学、伦理学、道德。假如没有在所有这些领域应用智能,我们仍就会住在泥屋中,过着勉强维持的农耕生活。相反,我们利用智能将我们的生活水平提升了约10,000倍,过去4000年间取得了巨大的进步。

  人工智能为咱们提供了深度增强人类智能的机会,可以使所有这些智能成果(以及从创造新药物到解决气候平均状态随时间的变化和太空技术的方式等其他领域)在这个基础上变得更好得多。

  人工智能对人类智能的增强慢慢的开始了——AI已经以各种计算机控制管理系统的形式存在于我们周围,如今通过像ChatGPT这样的大规模语言模型迅速升级,并且如果我们允许的话,将会从这里迅速加速发展。

  每个孩子将拥有一位无限耐心、无限同情、无限知识和无限帮助的人工智能导师。这位人工智能导师将在每个孩子成长的每个阶段都与他们并肩而行,以机器版的无限爱帮他们最大限度地发挥潜力。

  每个人都将拥有一位无限耐心、无限同情、无限知识和无限帮助的人工智能助手/教练/导师/培训师/顾问/心理治疗师。这位人工智能助手将在人生的各个机遇和挑战中一直陪伴,最大化每个人的成果。

  每个科学家都将拥有一位能极大扩展他们科研和成就范围的人工智能助手/合作者/伙伴。每个艺术家、工程师、商人、医生、照料者都将在他们的领域中拥有同样的助手。

  每个CEO、政府官员、非营利组织主席、体育教练、教师——都将有同样的机会。领导者在引导他们所领导的人方面做出更好决策的放大效应是巨大的,因此这种智能增强可能是最重要的。

  经济中的生产力增长将大幅加速,推动经济稳步的增长、新产业的创造、新工作的创造和工资增长,从而带来全世界内物质繁荣的新时代。

  科学突破、新技术和新药物将大幅扩展,因AI让我们进一步解码自然法则并利用它们为我们谋福利。

  创意艺术将进入黄金时代,因为经过人工智能增强的艺术家、音乐家、作家和电影制作人能够以比以往更快、更大规模地实现他们的愿景。

  我甚至认为,当战争不可避免时,AI将改善战争,大幅度的降低战时死亡率。每场战争都以在极大压力下、信息严重受限的情况下由非常有限的人类领导者做出的可怕决策为特征。现在,军事指挥官和政治领导人将有人工智能顾问,将帮他们做出更好的战略和战术决策,最大限度地减少风险、错误和不必要的流血牺牲。

  简而言之,人们今天所运用的自然智能,通过AI可以更好地实现,我们将能够应对那些在没有人工智能的情况下没有办法解决的新挑战,从治愈所有疾病到实现星际旅行。

  而且,这不仅仅涉及智能。人工智能最被低估的特质也许是它如何赋予人类更多人性。人工智能艺术使那些在技术技能上欠缺的人们拥有自由创作和分享他们的艺术思想。与富有同情心的人工智能朋友交谈确实提高了人们应对逆境的能力。而且,与人类对应的医疗聊天机器人已经更加富有同理心。无限耐心和同情心的AI将使世界变得更温暖和友好,而不是让世界变得更冷酷和机械化。

  这里的风险很高,机遇也非常深远。人工智能很可能是我们文明创造的最重要、最好的事物,与电力和微芯片相媲美,甚至有可能超越它们。

  人工智能的发展和普及——远非我们该害怕的风险——是我们对自己、对我们的孩子和对我们未来的道义责任。

  我们应该生活在一个借助人工智能变得更美好的世界,现在我们大家可以实现这一目标。

  与这种积极的观点相反,目前关于人工智能的公众讨论充斥着歇斯底里的恐惧和偏执。

  有人声称AI将以各种方式杀死我们所有人,毁坏我们的社会,夺走我们所有的工作,导致严重的不平等,并使坏人能够做出可怕的事情。

  为什么在人工智能的潜在结果中会出现这样一种从近乎乌托邦到可怕的反乌托邦的差异呢?

  从历史上看,每一项重要的新技术,无论是电灯照明、汽车、无线电还是互联网,都引发了一场道德恐慌——一种社会传染病,使人们相信新技术将摧毁世界、破坏社会,或两者兼有。Pessimists Archive的研究人员在过去几十年中记录了这些与技术相关的道德恐慌;他们的历史清晰地展现了这一模式。事实上,当前的人工智能恐慌甚至不是第一次出现。

  当然,许多新技术确实导致了不良结果——通常是那些在别的方面对我们福祉有巨大益处的技术。因此,并不是道德恐慌的存在意味着没什么需要我们来关注的问题。

  但是,道德恐慌本质上是非理性的——它将可能是合理关切的问题夸大到一种歇斯底里的程度,讽刺的是,这使得真正严重的问题更难以应对。

  这种道德恐慌已经被各种行为者作为一种推动力量,要求政策行动——制定新的人工智能限制、监管和法律。这些行为者对AI的危险发表极具戏剧性的公开声明,以此滋养和加剧道德恐慌,他们都把自己描绘成无私的公共利益捍卫者。

  经济学家观察到这种改革运动中的一种长期模式。在这类运动中,参与者分为两类——“洗礼者”和“走私者”——借鉴了上世纪20年代美国禁酒令的历史例子:

  “洗礼者”是真正的社会改革者,他们出于情感上的、而非理性上的原因,确实深切地认为需要制定新的限制、监管和法律来防止社会灾难的发生。在禁酒令中,这些参与者通常是虔诚的基督徒,他们都以为酒精正在破坏社会的道德结构。对于AI风险来说,这些参与者真心实意地认为人工智能存在一种或多种存在威胁——用测谎仪测,他们是认真的。

  “走私者”是自私的机会主义者,他们将从新的限制、监管和法律中获得经济利益,使自己免受竞争的冲击。在禁酒令中,这些人就是以非法方式向美国人销售非法酒精而发了财的人。对于AI风险来说,这些人是CEO,如果建立起规范性障碍,形成一家由政府认可的人工智能供应商垄断组织,可保护它们免受新勇于探索商业模式的公司和开源竞争的冲击,就像是“太大而不能倒”的银行一样。

  愤世嫉俗者可能会提出,一些表面上是洗礼者的人也是走私者——特别是那些受到大学、智库、活动团体和媒体机构支付薪水或获得资助来宣扬人工智能恐慌的人。如果你得到薪水或获得资助来宣扬人工智能恐慌...你很可能是一个走私者。

  走私者的问题就在于他们会获得胜利。洗礼者是天真的理想主义者,走私者是愤世嫉俗的操作者,因此这类改革运动的结果通常是走私者得到他们想要的——监管垄断、免受竞争的冲击、垄断组织的形成——而洗礼者则纳闷着他们为了社会进步而努力的动力到底出了什么问题。

  我们刚刚经历了一个惊人的例子——2008年全球金融危机后的银行改革。洗礼者告诉我们,我们应该新的法律和监管来打破“太大而不能倒”的银行,以防止类似危机再次发生。于是,美国国会通过了2010年的《多德-弗兰克法案》,宣传称满足了洗礼者的目标,但实际上被走私者——大银行所利用。结果是,2008年那些“太大而不能倒”的银行现在变得更庞大了。

  因此,实际上,即使洗礼者是真诚的,即使洗礼者是正确的,他们也会被善于操纵和贪婪的走私者利用,以谋取自己的利益。

  然而,仅仅识别参与者并质疑他们的动机是不够的。我们该对洗礼者和走私者的论点进行评估。

  对我们自己创造的技术将会崛起并摧毁我们的恐惧根深蒂固地融入到我们的文化中。古希腊人在普罗米修斯神话中表达了这种恐惧——普罗米修斯给人类带来了毁灭性的火焰和更广义的技术(“技艺”),而为此普罗米修斯被众神永久折磨。后来,玛丽·雪莱在她的小说《弗兰肯斯坦》或《现代普罗米修斯》中给了我们现代人一个自己的版本,其中我们开发了永生的技术,然后这种技术升起并试图摧毁我们。当然,任何关于人工智能的恐慌报道都不会完整,没有詹姆斯·卡梅隆的《终结者》系列电影中一个闪亮红眼睛的杀人机器人的静止图像。

  这种神话的推测性进化目的是激励我们认真考虑新技术的潜在风险——毕竟,火焰确实可拿来烧毁整个城市。但就像火焰也是现代文明的基石,用来使我们在寒冷和敌对的世界中保持温暖和安全一样,这种神话忽视了大多数新技术的更大潜力——也许是全部潜力?——并且实际上煽动了破坏性的情绪,而非理性分析。仅仅因为古代人会像这样惊慌失措,并不代表我们必须这样做;我们可以应用理性。

  我的观点是,人工智能会决定实际上杀死人类的观点是一个深刻的范畴错误。人工智能不是一个有着亿万年进化历程、已经被激发参与适者生存竞争的生命体,就像动物和我们一样。它只是数学——代码——由人构建、由人拥有、由人使用、由人控制的计算机。它会在某个时刻发展出自己的思维,并决定有动机导致它试图杀死我们的想法是一种迷信的观点。

  简而言之,人工智能没有欲望,它没有目标,它不想杀死你,因为它不是活的。人工智能是一种机器,就像你的烤面包机一样,不会比它更有生命。

  显然,有些人是对杀手人工智能深信不疑的人——洗礼者——他们因为恐怖的警告而突然获得了极高的媒体关注,其中一些人声称已经研究这个主题数十年,并表示他们对所了解到的内容感到恐惧。其中一些真信徒甚至是这项技术的创新者。这些人主张对人工智能实施各种奇怪和极端的限制,从禁止人工智能的发展,一直到对数据中心进行军事空袭和核战争。他们认为,由于像我这样的人无法排除人工智能未来可能带来的灾难性后果,我们必须采取预防性的立场,可能需要大量的实际暴力和死亡来防止潜在的存在风险。

  我的回应是,他们的立场是非科学的——有什么可以进行检验的假设?什么会证伪这个假设?我们如何知道什么时候进入了危险区域?除了“你不能证明它不会发生!”之外,这些问题基本上没有得到回答。事实上,这些洗礼者的立场非常非科学和极端——是一种关于数学和代码的阴谋论——而且已经呼吁实施实际暴力,所以我会做一些我通常不会做的事情,质疑他们的动机。

  首先,回想一下,约翰·冯·诺伊曼对罗伯特·奥本海默有关他参与制造核武器的忧虑做出了回应——这些核武器帮助结束了第二次世界大战并阻止了第三次世界大战——他说:“有些人承认罪行是为了声称自己的功劳。”有什么办法可以以最引人注目的方式声称自己的工作的重要性,而不显得过于自负呢?这解释了那些实际上正在构建和资助人工智能的洗礼者言行不一致的现象——观察他们的行动,而不是他们的言辞。(杜鲁门在与奥本海默会面后说得更狠:“别让那个哭鼻子再进来”)。

  其次,一些洗礼者实际上是走私者。有一个专门的职业“人工智能安全专家”、“人工智能伦理学家”、“人工智能风险研究员”。他们是为了悲观而受薪水的,他们的言论应该得到适当的处理。

  第三, 加利福尼亚州因我们众多的而闻名,从培训魂、人民寺庙,到天堂之门和曼森家族。尽管并非所有这些都是有害的,甚至对于那些感到疏离的人来说,它们可能有助于找到一个归属感。但有些确实非常危险,通常很难在终将导致暴力和死亡的界限上取得平衡。

  事实是,对于旧金山湾区的每个人来说显而易见,但可能对其他地方的人来说并不明显,人工智能风险已经发展成为一个,并突然在全球媒体关注和公众讨论中浮出水面。这个不仅吸引了一些边缘人物,还吸引了一些真正的行业专家和相当数量的富有捐赠者,其中包括直到最近的山姆·班克曼-弗里德。它还发展出了一整套行为和信仰。

  正是由于这种,才出现了一群声音极端的人工智能风险悲观者——并不是因为他们真的拥有某种秘密的知识,使得他们的极端主义变得合乎逻辑,而是因为他们自己把自己激动得疯狂,真的是极端到极点。

  事实证明,这种类型的并不新鲜——在西方有着悠久的千禧年主义传统,会产生启示录型。人工智能风险具有所有千禧年启示录型的特征。以下是来自的内容,我加入了一些补充:

  千禧主义是一种由一群人或运动(AI风险厌恶者)相信社会即将发生根本性转变(AI的出现)的信念,随后一切都将发生改变(AI乌托邦、反乌托邦或世界末日)。只有戏剧性的事件(AI禁令、对数据中心的空袭、对无监管AI的核打击)被视为能够改变世界(阻止AI),而这种变革预计将由一群虔诚而专注的人群带来或幸存下来。在大多数千禧主义情景中,即将到来的灾难或战斗(AI启示录或其预防)将被一个新的、纯净的世界(AI禁令)所紧随,信徒将会得到奖赏(或至少被承认一直正确)。

  别误会,了解是很有趣的,它们的书面材料常常富有创意和吸引力,它们的成员在晚宴和电视节目中也很引人入胜。但是,它们的极端信仰不应决定法律和社会的未来-显然不应该。

  第二个广为传播的AI风险是AI会毁掉我们的社会,通过产生输出结果,即使我们没有被直接杀害,也会对人类造成深远的伤害,使用这种末日论者的术语来说就是“有害”的。

  这是一个相对较新的末日论关注点,它分支出来并在一定程度上接管了我上面描述的“AI风险”运动。实际上,AI风险的术语最近从“AI安全”(由担心AI会直接杀死我们的人使用)变为“AI对齐”(由担心社会“伤害”的人使用)。最初关注AI安全的人对这种转变感到沮丧,尽管他们不知道如何让它回到原来的轨道-他们现在主张将实际的AI风险主题更名为“AI不会杀掉所有人主义”,尽管这种术语尚未被广泛采用,但至少它是清楚的。

  AI社会风险主张的特点就是它自己的术语:“AI对齐”。对齐什么?人类价值观。哪些人类价值观?啊,这就是问题的复杂之处。

  碰巧的是,我亲眼目睹了类似的情况-社交媒体的“信任与安全”战争。如今显而易见,社交媒体服务多年来一直面临来自政府和活动人士的巨大压力,要求禁止、限制、审查和压制各种内容。而“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的相同担忧直接从社交媒体背景转移到了“AI对齐”的新领域。

  一方面,不存在绝对的立场。首先,包括美国在内的每个国家至少都会将某些内容定为非法。其次,某些内容,比如儿童色情和煽动现实世界暴力的行为,几乎被几乎每个社会普遍认为是禁止的-不论是否合法。因此,任何促进或生成内容(言论)的技术平台都将受到一定的限制。

  另一方面,滑坡效应不是谬误,而是不可避免的结果。一旦建立了限制甚至极其可怕内容的框架,例如针对仇恨言论、伤害性词语或错误信息(如“教皇去世”这样明显的虚假陈述),将会有令人震惊的广泛政府机构、活动人士压力团体和非政府实体踏入行动,并要求对他们认为威胁社会和/或个人偏好的言论进行越来越多的审查和压制,甚至采取公然犯罪的方式。实际上,这种循环似乎可以无限延续,得到整个精英权力结构中那些积极支持的权威主义监察员的支持。这在社交媒体上已经持续了十年,除了一些特例,情况越来越热烈。

  因此,这就是现在围绕“AI对齐”形成的动态。其支持者声称拥有智慧来设计对社会有益的AI生成的言论和思想,并禁止对社会有害的AI生成的言论和思想。而其反对者则声称思想警察极其傲慢和专横-而且在美国至少往往是彻底违法的,并实际上试图成为一种新型的融合政府-企业-学术权威主义言论专政,直接从乔治·奥威尔的《1984》中摘取。

  由于“信任与安全”和“AI对齐”的支持者都聚集在全球人口中非常狭窄的一部分中,这部分人正是美国沿海精英的代表,其中包括许多科技行业的从业人员和作家,我相信我的许多读者会认为,为了避免摧毁社会,对AI输出进行严格限制是必要的。我现在不打算说服你们改变这种观点,我只是简单地陈述这是需求的本质,而且世界上大多数人既不同意你们的意识形态,也不希望看到你们获胜。

  如果你不同意当前通过不断加强的言论规范对社交媒体和AI强加的小众道德观,你应该意识到对AI允许说什么/生成什么的争论将比对社交媒体审查的争论更加重要-远远重要。AI极有可能成为世界上一切事物的控制层。它被允许如何运作可能比任何其他事情都更加重要。你应该意识到,一小撮孤立的党派社会工程师正在试图在他们声称为了保护你们的名义下,决定这一点。

  担心因机械化、自动化、计算机化或AI而导致失业的恐惧已经持续数百年,自从机械织布机等机械装置首次出现以来。尽管每一项重大新技术在历史上都带来了更多高薪工作,但每一波这种恐慌都伴随着“这一次不同”的说法-这一次终于会发生,这一次的技术将给人类劳动力以致命一击。然而,这从未发生过。

  在最近的过去,我们经历过两次由技术驱动的失业恐慌周期-2000年代的外包恐慌和2010年代的自动化恐慌。尽管在这两个十年里,许多评论家、专家甚至科技行业高管都大声疾呼大规模失业即将来临,但到2019年底-即COVID爆发前-世界上的工作岗位数量创历史新高,薪资水平也达到了历史最高水平。

  这一次,我们终于有了一种将夺走所有工作,使人类工人变得多余的技术-真正的人工智能。这一次历史不会重演,AI将导致大规模失业,而不是迅速的经济、就业和工资增长,对吗?

  不,那是不可能发生的-事实上,如果允许人工智能在经济中得以发展和普及,它可能会引发有史以来最引人注目和持续的经济繁荣,相应地创造就业和工资增长的纪录-正好与恐惧相反。原因如下。

  自动化杀死工作的末日论者一直在犯的核心错误被称为“劳动总量谬误”。这种谬误是错误的观念,即在任何特定时期内,经济中需要完成的劳动是固定的,要么由机器完成,要么由人类完成-如果由机器完成,就不会有工作可供人类去做。

  劳动总量谬误自然而然地源于天真的直觉,但在这里,天真的直觉是错误的。当技术应用于生产时,我们获得了生产力增长-即通过减少投入而增加产出。其结果是商品和服务的价格下降。随着商品和服务的价格下降,我们支付的费用也减少了,这说明我们现在有额外的消费能力,可以购买其他东西。这增加了经济中的需求,推动了新的生产-包括新产品和新行业-的创造,从而为以前被机器取代的人们创造了新的就业机会。结果是一个更大的经济体,物质繁荣水平更高,行业更多,产品更多,就业机会也更多。

  但好消息还不止于此。我们还会获得更高的工资。这是因为,从个体工人的层面来看,市场根据工人的边际生产力来确定报酬。与传统企业相比,科技融入业务的工人将更具生产力。雇主要么会因为工人的生产力提高而支付更多的薪水,要么其他雇主会纯粹出于自身利益而支付更多薪水。结果是,引入技术到一个行业通常不仅会增加该行业的就业机会,还会提高工资水平。

  总结一下,技术使人们能够更具生产力。这导致现有商品和服务的价格下降,工资上升。这进而导致经济增长和就业增长,并激励创造新的工作岗位和新的产业。如果市场经济得以正常运作,如果技术得以自由引入,这将是一个永不停歇的持续向上循环。正如弥尔顿·弗里德曼所观察到的,“人类的欲望和需求是无穷无尽的”-我们总是希望拥有更多。科技融入市场经济是我们接近满足每个人可能想要的一切,但永远无法完全实现的方式。这就是为什么技术不会破坏就业,永远也不会。

  对于那些没有接触过这些思想的人来说,这些想法确实是令人震惊的,可能需要一些时间来理解。但我发誓我并不是编造它们-事实上,你可以在标准经济学教材中找到关于它们的所有内容。我推荐你阅读亨利·哈兹里特(Henry Hazlitt)的《经济学一课》中的“机械的诅咒”一章,以及弗雷德里克·巴斯夏(Frederic Bastiat)关于蜡烛制造商向太阳提出请愿书的讽刺,因为太阳与照明行业存在不公平竞争,这里为我们现代化。

  但你可能会想,这一次不同。这一次,随着AI的出现,我们拥有了可以取代所有人类劳动力的技术。

  但是,根据我上面描述的原理,想想如果所有现有的人类劳动力都被机器替代会意味着什么。

  这意味着经济生产率增长的起飞速度将是绝对天文数字,远远超过任何历史先例。现有商品和服务的价格将全面下降,接近于零。消费者福利将飙升。消费者的购买力将飙升。经济中的新需求将迅速爆发。企业家们将创造令人眼花缭乱的新行业、产品和服务,并尽快雇佣尽可能多的人工智能和人力来满足所有新的需求。

  假设AI再次取代了这种劳动力?这个循环将重复,推动消费者福利、经济增长以及就业和工资增长更上层楼。这将是一个直线上升的螺旋,直达亚当·斯密和卡尔·马克思从未敢于梦想的物质乌托邦。

  对于AI夺走工作的担忧直接引出了下一个声称的AI风险:假设AI确实夺走了所有的工作,不论是出于好的还是坏的原因。那么,这难道不会导致巨大而严重的财富不平等吗?AI的所有者获得了所有的经济回报,而普通人却一无所得?

  即生产资料的所有者-资产阶级-将不可避免地从真正做工作的人-无产阶级-那里窃取所有的社会财富。尽管这个观点在现实中被多次证明为错误,但它是一个无论多少次都无法消失的谬误。但让我们还是从根本上否定它。

  这一理论的缺陷在于,作为一种技术的所有者,将其保留给自己并不符合自身利益-事实上相反,将其卖给尽可能多的客户才符合自身利益。任何产品的最大市场都是整个世界,也就是80亿人口。因此,实际上,每一项新技术-即使最初只向高薪大公司或富有的消费者销售-都会迅速传播,直到它进入最大可能的大众市场,最终覆盖整个地球上的每一个人。

  经典的例子是埃隆·马斯克在2006年对特斯拉提出的所谓“秘密计划”-当然,他当时是公开发表的:

  最后一点非常关键。如果埃隆今天只卖车给富人,他会更加富有吗?不会。如果他只为自己制造汽车,他会比现在更富有吗?当然不会。不,他通过销售给最大可能的市场-全世界-来最大化自己的利润。

  简而言之,每个人都会得到这个东西-就像我们过去在汽车、电力、无线电、计算机、互联网、移动电话和搜索引擎方面所看到的一样。这些技术的制造者非常有动力将价格降低,以至于地球上的每个人都能够负担得起。这正是在人工智能领域已经发生的事情-这就是为什么今天你可以以低廉甚至免费的价格使用最先进的生成式人工智能,例如微软的必应(Bing)和谷歌的Bard-而且这种情况将继续发生。这不是因为这些供应商愚蠢或慷慨,而是因为他们贪婪-他们希望最大限度地扩大市场规模,从而最大化他们的利润。

  因此,发生的情况与技术推动财富集中化相反-最终包括全球所有人在内的技术的个体用户获得了权力,并获得了大部分产生的价值。与之前的技术一样,建造人工智能的公司-假设它们必须在自由市场中运作-将竞相努力实现这一目标。

  这并不是说不平等不是我们社会面临的问题。它是一个问题,只是它不是由技术驱动的,而是由相反的因素驱动,即那些对新技术最的经济部门,那些对阻止采用人工智能等新技术干预最多的部门-特别是房屋、教育和医疗保健部门。人工智能和不平等的实际风险不在于人工智能会导致更大的不平等,而是我们将不允许利用人工智能来减少不平等。

  到目前为止,我已经解释了五个最常提出的AI风险中的四个实际上并不存在-人工智能不会自主行动并杀死我们,人工智能不会毁掉我们的社会,人工智能不会导致大规模失业,人工智能不会引发灾难性的不平等增加。但现在让我们来讨论第五个风险,这是我实际上同意的一个观点:人工智能将使坏人更容易做坏事。

  从某种意义上说,这是个重言。技术是一种工具。工具,从火和石头开始,可以用来做好事-烹饪食物和建造房屋-也可以用来做坏事-烧伤人和殴打人。任何技术都可以用于善恶之中。没错。毫无疑问,人工智能将使罪犯、和敌对政府更容易做坏事。

  这使得一些人提议,好吧,既然这样,那么在这种情况下,让我们不冒这个风险,让我们在这种情况发生之前禁止人工智能。不幸的是,人工智能并不是一种难以获得的隐秘物质,比如钚。恰恰相反,它是世界上最容易获得的材料-数学和代码。

  人工智能已经猛虎出笼。你可以从成千上万的免费在线课程、书籍、论文和视频中学习如何构建人工智能,而且优秀的开源实现正在日益增多。人工智能就像空气-它将无处不在。为了阻止人工智能的发展,所需要的极权压制程度将如此严酷-世界政府监控和控制所有计算机?穿着黑色直升机的武装暴徒抢夺流氓显卡?-以至于我们将没有一个社会可以保护。

  因此,解决坏人利用人工智能做坏事的风险有两种非常直接的方法,这正是我们应该关注的。

  首先,我们已经有法律来将大多数坏事与人工智能联系起来犯罪化。入侵五角大楼?这是犯罪。从银行盗取钱财?这是犯罪。制造生物武器?这是犯罪。实施?这是犯罪。我们大家可以简单地专注于在我们可以的情况下预防这些犯罪行为,并在无法预防时对其进行起诉。我们甚至不需要新的法律-我不知道是否有任何一个实际上被提出的坏的人工智能使用方法不违法。如果发现新的坏的使用方法,我们禁止该使用方法。证明了问题。

  但你会注意到我在其中提到了什么-我说我们应该首先集中精力在防止人工智能协助犯罪之前-难道这种预防不意味着禁止人工智能吗?好吧,还有另一种方法来防止这种行为,那就是将人工智能作为一种防御工具。使坏人在实现坏目标时危险的能力,同样也使得在实现良好目标的好人手中具有强大的能力-特别是那些工作是预防坏事发生的好人。

  例如,如果你担心人工智能生成假人和虚假视频,答案是构建新的系统,让人们可以通过加密签名验证自己和真实内容。在人工智能出现之前,数字化创作和篡改真实和虚假内容已经存在;答案不是禁止文字处理软件和Photoshop-或者人工智能-而是利用技术构建一个真正解决问题的系统。

  因此,第二点,让我们大力推动将人工智能用于善良、合法和防御性目的。让我们将人工智能应用于网络防御、生物防御、追捕以及我们为了保护自己、我们的社区和我们的国家而做的一切。

  当然,已经有很多聪明的人在政府内外正在做这件事-但如果我们将目前专注于徒劳地试图禁止人工智能的所有努力和智慧应用于利用人工智能来防范坏人做坏事,我认为毫无疑问,一个融入人工智能的世界将比我们今天生活的世界更加安全。

  1. 允许大型人工智能公司尽可能快速和积极地发展人工智能,但不允许它们获得监管控制,不允许它们建立一种受到错误的人工智能风险声称保护的政府垄断联盟。这将最大程度地发挥这些公司的惊人能力所带来的技术和社会回报,它们是现代资本主义的宝贵财富。

  2. 创业型人工智能公司应被允许尽可能快速和积极地发展人工智能。它们既不应面对大公司获得政府授予的保护,也不应接受政府援助。它们应该被允许自由竞争。即使初创公司失败,它们在市场中的存在也将不断激励大公司做到最好-不管以哪种方式,我们的经济和社会都会获胜。

  3. 开源人工智能应被允许自由扩散和与大型人工智能公司和初创公司竞争。开源领域不应受到任何监管壁垒的限制。即使开源技术不能战胜公司,它的广泛可用性对世界各地想要学习如何构建和使用人工智能并成为技术未来一部分的学生们是一种福音,它将确保无论一个人是谁,有多少钱,都能从中受益。

  4. 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作,应积极参与潜在风险领域,利用人工智能来最大限度地提升社会的防御能力。这不仅限于人工智能相关的风险,还包括更一般的问题,如营养不良、疾病和气候问题。人工智能可以是解决问题的非常强大的工具,我们应该将其作为这样的工具来接受和运用。

  人工智能的发展始于20世纪40年代,与计算机的发明同时进行。关于神经网络(我们今天所拥有的人工智能的架构)的第一篇科学论文于1943年发表。

  在过去的80年里,整整几代人的人工智能科学家出生、上学、工作,许多人甚至去世,都没有看到我们现在所获得的回报,他们都是传奇人物。

  如今,慢慢的变多的工程师群体正在努力将人工智能变为现实,其中许多人年轻,可能有祖父母甚至曾祖父母参与了人工智能理念的创造。

  我不相信他们是草率或邪恶的人,他们每一个人都是英雄。我和我的公司非常高兴支持尽可能多的他们,我们将100%站在他们和他们的工作旁边。