
过去,我们也许认为由人类开发出来的人工智能依然没有大脑好,但是如今像GPT-4知道的远比我们多得多,它们可以具有关于所有事物的常识性知识,它们可能比一个个人知道的多1000倍。它们已经具备很强的推理能力,可以以万倍于前的速度学习和进化。我们或许一直觉得推理是人类的强项,然而,GPT-4的表现令人感到震惊。它完成了不可能的常识性推理。某种意义上来说,这甚至有些可怕。因为一旦AI被恶意使用,人类或许会束手无策。
计算机比人类更佳擅长学习,这也许也将使未来的人类感到恐惧。
人工智能技术的进步显著加快,在提高生产力并改变就业结构方面必将产生深远影响。未来几十年不容小觑。当然,任何事物发展所带来的机遇与风险是并存的。潜在威胁不容忽视。
随着人工智能系统的不断学习和进步,以及算法的不透明性与自主性加强,失控AI的可能性也在增加。任何一国或个体公司都难以完全控制人工智能的发展方向,全球范围内的AI技术竞赛势必加剧这种风险。人工智能在医学和其他方面都非常有用。所以,我不认为有什么机会阻止发展。我们想要的是某种方法,确保即使它们比我们聪明,它们也会做对我们有益的事情。人工智能技术发展的大势难以阻挡,我们非常需要积极应对而非消极回避。理性规划与管理,使其真正为人类社会福祉服务,这也是我们这一代人所面临的严峻考验。
当然,聪明的AI机器似乎还需要自己的动机。人类是进化而来的,因为进化,我们有一些很难关闭的内置目标,比如我们努力不去伤害我们的身体,这就是痛苦的意义。我们努力吃饱,以养活我们的身体。我们努力尽可能多地复制我们自己,也许不是故意的,但我们的意图是制造更多副本,所以这个制造更多副本的过程中有愉悦感。这一切都归因于进化。
数字智能并非进化而来的,而是人类所创造的,所以它们没有这些内置的目标。可是,如果我们能把目标放进去,会怎样?也许迟早有人会要求把创建子目标的能力纳入其中。事实上,它们几乎已经具备了这种能力,如ChatGPT。如果你给予某物以子目标来实现其他目标的能力,它或许会很快地意识到,获得更多控制权是一个很好的子目标,因为它有助于实现其他目标。如果这些智能体为了获得更多控制而失去控制,人类就有巨大的麻烦了。
人工智能正在从我们这里学习,它们可以阅读所有的小说,它们会知道如何操纵人,如果它们比我们更聪明,它们会非常擅长操纵我们,不是吗?我们甚至可能都不会意识到发生了什么,就像一个两岁的孩子被问到想喝果汁还是牛奶,却没有意识到他不一定要选择其中一个一样。我们会很容易被操纵。所以,即使它们不能直接拉动杠杆,它们肯定可以让我们去拉动杠杆。 我们将如何防止它们控制?
AI会将产生自我动机,失控AI可能让人类只是智慧演化过程中的一个过渡阶段?我们必须担心这个问题,敲响警钟。我们是否有解决方案可以推动,目前好像没有?但是也许我们至少需要认真思考这个问题,看看是否有解决方案。
超级智能机器人可能会带着我们走向何方?我们会安全吗? 很大可能,人类只是智慧演化过程中的一个过渡阶段。
对于AI,狂热的极少数、慌乱的大多数、部分的理性人士。我们正在经历一个前所未有的时代,在这样的一个时代之下,我们每个人都太不容易了。希望我们可以共同守护我们身边的家人和这个地球。
















