首页 职业指导正文

未来最火的职业是什么?

小木 职业指导 2020-11-12 54 0

如果你担心自己的孩子以后找不到工作,那么你可以让他学哲学。

很惊讶是吗?

这是当前最难找工作的一个专业,但是在未来哲学是最重要的工作。

未来充满了未知。没有人能说出5年、20年或50年后就业市场是什么情况。但是,大多数人都同意一个趋势:人工智能在各个领域正在比人更优秀。

很多职业正在面临失业的风险,包括你现在正在从事的职业,已经进入失业倒计时了。

你可能会觉得,自己的职业是很安稳的,因为这是一份有创造力的工作,需要大量的知识积累和经验才能完成。这么想的人可能是老师、科学家,或是程序员。你的职业真的很安全吗?

你再想想看。

体力劳动者和手工艺者已经非常危险了,机器人在这方面比人高效得多。现在越来越多的工厂开始使用纯机器人流水线做工,人已经完全多余了。

第一次工业革命的时候,卢德主义者开始砸毁织布机,他们害怕织布机会让他们失业,那发生在1779年。最终他们并没有把全英国所有的织布机都砸掉,但是他们仍然找到了新的工作。

从那以后,每一次重大的技术进步,都有一些“卢德主义者”出现。但是每一次消灭了一个职业,总会有新的职业冒出来。历史告诉我们,机器不会抢走人类的工作。

但是,今天面临的情况与以前有所不同,人工智能在任何一个行业都有可能比人类更出色。

我们已经看到了在一些疾病的诊断上,人工智能比最有经验的医生更准确。

以下这些职业正处在人工智能的威胁中:

  • 医生

  • 媒体和记者

  • 政治家

  • 评委

  • 教师

  • 金融从业者

  • 刑侦人员

  • 科学家

  • 企业家

  • 甚至是艺术家

请看这张图:

这幅画在艺术品拍卖会上以43万美元的价格卖出。虽然这幅画看起来有点搞笑,但是它的作者非常特别,这是一个智能机器人(GAN算法)画的。这个机器人学习了很多画作以后,自己产生了“创意”,然后创作出了这幅画。

人们经常将创造力视为一种神奇的事情,很虚幻、无法解释、不可预测,其实并非如此。创造力只是在已经掌握的知识和经验里面重新组合,就可以创造一些新的内容。

GAN算法已经被用来进行各种形式的艺术创作了,音乐也不例外。有人对巴赫的音乐和人工智能创作的“巴赫风格音乐”进行了听辨实验,即使是经验丰富的音乐家,也无法分辨出哪个是人创作的,哪个是机器创作的。只有在被告知这首曲子是机器创作的时,人们才觉得“这首曲子缺少灵魂”。我勒个去,你怎么不早说。

我说服你了吗?不论你的职业多么复杂,人工智能都可以替代。

人工智能以后会发展到一个新的阶段,就是不再区分某个特定领域的智能,而是全能的。比如一个人工智能可以在医学诊断、绘画、音乐、法律、教育等等领域都很精通。

只有一种职业是不能替代的——哲学家

人类即将面对四个哲学问题

人工智能无法取代哲学家的原因是,哲学并不是一个有客观答案的学科,这是它与科学的本质区别。这可能是人类体验到生命意义感的缘由之一,它与纯粹的智力无关。

比如,如果你认为杀死动物是不道德的,然后你又是一个肉食主义者,那么你自身就包含一个哲学矛盾。这不是你的错,这两种观点在你身上是真实存在的,哪一点都不需要你彻底反对。这些矛盾已经存在了几千年了,这是不需要AI来解决的,它也解决不了。

随着AI时代的来临,有些哲学问题是不得不面对的。

哲学问题1:机器道德

哲学必须要参与到AI的发展进程中,来解决道德问题。无人驾驶就是一个例子。

自动驾驶技术越来越成熟了,它比人驾驶汽车更安全,这是已经发生的事情。但是,当它出了交通事故时,要面临非常复杂的问题。

想象一下,事故责任该怎么判定。到底是谁的错呢?车主?汽车销售店?汽车制造商?算法工程师?道路设计者?允许自动驾驶上路行驶的法律制定者?也可能找不到谁来承担责任。

我们再思考一个更复杂的场景。

如果无人驾驶汽车在正常行驶的过程中,突然遇到一个紧急情况,事故是不可避免要发生的。眼前有两个选择必须做出选择:要么撞向一个孩子,要么撞向一个老人,AI该作何选择?你也许会认为,还是留下那个孩子的命吧,但是可能还有更复杂的情况:

  • 1个孩子和10个老人

  • 1个孩子和10个小偷

  • 1个孩子和10个杀人犯

  • 1个孩子和100个杀人犯

  • 1个孩子和100只小狗

  • 1个孩子和2个身患绝症的成年人

  • 1个孩子和一幢房子

  • 1个孩子和一座医院

  • 1个女人和一个身患癌症的孕妇

你发现了吗?不管怎么选择,都不是正确答案。你认为正确的答案,只取决于你对道德的理解。

这不是一个供人玩乐的辩论题目,这是现实中必须要解决的问题。说“解决”并不合适,因为这类问题没有标准答案。

我们沿着道德问题继续思考。既然没有正确答案,那么就采用民主投票的形式来制定策略如何?民主能解决道德和哲学问题吗?

比如,一个自动驾驶汽车面临要么撞死10个人,要么汽车失控让车主当场死亡,该怎么选择?大多数人都会同意让10个人活下来是最佳选择。按照民主程序一定会产生这个结果,但是哪位车主会傻到购买一辆对自己不够安全的汽车呢?

从博弈论的角度来看,人们要么买一辆普通的汽车,可能会导致很多人受伤,要么买一辆对自己更安全的汽车,同样有可能会导致很多人受伤。从经济规律来讲,只有生产优先保护车主的汽车,才有市场。所以,最终的发展路径并不是道德上最优。

道德观会变得模糊,这对人类社会是一个巨大的挑战。以后还会出现“像极了人类”的仿生机器人,也会出现经过大量的基因编辑的人类,甚至出现大脑结构与我们完全不一样的新人类。“人”将很难定义。

我们的技术越进步,道德界限就越模糊。以前,把人和其他生物物种区分出来是很容易的,但是这种清晰的感觉很快就不存在了。在一片模糊的世界里,只有哲学家才能在混乱中分出一些界限,定出一些规则。不是要取消道德,而是要为各种角色制定更复杂的边界。

哲学问题2:意识转移

在未来,人类的思维意识是可以上传和下载的,人的意识将会逐渐脱离生物体而存在。这是一个可以永生的终极解决方案,但是也可能是人类的厄运。

从理论上来讲,一个人的意识从A点传送到B点,这仿佛不是问题。但是你要是了解背后的原理你心里就开始别扭了,首先把A点的意识复制一份,传送到B点成功以后,再把A点的意识消灭掉。那么,A点的意识不愿意被消灭怎么办?

A和B几乎就是同一个人,他们拥有完全相同的记忆,并都声称自己就是真正的那个人。那么如果你是A,你会容许B的存在吗?如果不止两个复制体呢?

我们的所有记忆都来自于大脑的神经元,这些神经元细胞不断老去,另外不断有新的细胞长出来,但是意识却可以恒常存在,说明意识的延续性是非常好的。只要能够模仿神经元的工作模式,可以以各种形式存储人类的意识。理论上讲,意识可以数字化,甚至可以存在一个U盘里。

只要被数字化了,远距离传输就不是问题,被复制无数个副本也不是问题,那个时候会发生什么情况呢?

我们继续思考那个救谁的问题。

  • 1个老人和1个存储了孩子的意识的U盘

  • 1个老人和100个被克隆的孩子的生物体

你会选择救谁?如果你陷入了迷茫,这很正常。很多思想实验都会让人难过,我们的大脑对于无法解决的矛盾充满了迷思。

可能再过十几年或几十年,意识上传的技术将会开始普及,还有很多哲学问题需要解决。

哲学问题3:生命的意义

假如人类真的进入了永生的极乐世界,每个人都过上了安全无忧无虑的生活。那该多好啊?

但是人类是复杂的,人类需要追寻意义感。人们需要有事情做,工作是最有意义的事情之一。如果你是一名医生,你可以继续以医生的身份给病人看病,虽然你已经没有AI做得好了。如果你喜欢开车,你就不会去乘坐无人驾驶汽车。但是你并无法阻止那一天的到来。19世纪以前,骑马是主要的交通方式,当汽车流行起来以后,仍然有很多人选择把骑马当作一种体育运动。那么现在你能看到大街上有人骑马出行吗?未来的无人驾驶时代也是一样。最终,人们会过上安全、舒适和无聊的生活。

很多真实的人类行为,最后都变成了娱乐方式,比如打猎、钓鱼、跑步、拳击。现代社会没有那么多战斗可以参与,人们就会去打篮球和下象棋。

在未来的数字乌托邦里,每个人都是平等的,没有人是第一,也没有人穷困潦倒。所有的感觉只需要一段代码就可以实现,无非就是消耗一点电力。如果你愿意下载到一个生物体内生活,你可以选择自己喜欢的基因,也可以不断地改造升级自己的基因。

会有很多哲学问题等待我们去解决:

虚拟和现实越来越无法区分。如果在你的意识里你认定自己是一个12岁的孩子,你正在一个生活场景里经历着各种青春期的挑战,你怎么区分这是现实还是你给自己下载的一段意识体验程序?如果你认为现实生活特别真实,你怎么确定这不是一个身陷网瘾的少年?

如果虚拟的意识世界无所不能,那么你可能会为自己做许多事情,比如虚拟吸毒、或把自己的基因改造成超人。这是人类通往幸福的道路吗?

未来的哲学家还有很多事情要做。

哲学问题4:人类被边缘化的问题

我们从乌托邦回到物理世界。我们通往天堂的阶梯包括人工智能和超级人工智能。第一个阶段是人仍然主导着机器的运作,机器虽然聪明,但智力与人类仍在同一个维度上。第二个阶段,超级人工智能将会成为高维的存在,它们看待人类,就像人类看待蚂蚁一样。这可能会是人类的厄运。

它虽然聪明,但是它并没有道德感,也没有感情,它只是善于解决问题。虽然我们制造人工智能的时候,会考虑给它做各种限制,但是最终我们的聪明程度将会远远落后于它,它将会找到人类设定规则的各种漏洞,达到无法限制的程度。

最终人工智能会杀死我们吗?

为了回答这个问题,我们可以想象一下:一只蚂蚁如何请求人类不要杀死它?它做不到。即使蚂蚁知道一个人要杀死它,它做什么都是徒劳的,它只能继续往前爬。

超级人工智能为什么要杀死人类呢?因为它的目标与我们不一致,它可能只是在使用最高效的方法实现一个目标,杀死人类只是无意之举。想象一下,你在上班路上踩死一只蚂蚁,你并不是故意要杀死它。

超级人工智能并不是邪恶的,它只是没有道德观念。如果给超级人工智能一个简单的任务——制造尽可能多的回形针,那么它遇到的任何资源,包括人的身体,都是一堆原子而已。

人类将会与一个完全没有道德感的无比强大的事物打交道。它能发现一切漏洞,人类要么找到一种与之合作结盟的办法,要么将会被彻底边缘化。

我们只是蚂蚁,大约就在这个世纪下半段,时钟正在滴答作响。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论