澳门皇冠真人直营
您的位置: 澳门皇冠真人直营主页 > 技术公司动态 > 技术公司动态
这九项的技术将塑造你的未来(下)

发布人: 澳门皇冠真人直营 来源: 澳门皇冠真人直营网站 发布时间: 2020-07-15 14:43

  神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

  编者按:自古以来,大部分人类对新技术的态度一开始总是的。我们害怕过电,害怕过火车和汽车。但是我们适应新技术的速度也很快,只需1、2代人的时间就会把那种恐惧跑到九霄云外。那这一次会是一样的吗?比方说,我们应该对人体冷冻感到害怕吗?我们应该对有人替我们做选择感到高兴吗?纳米机器人呢?设计婴儿?上传意识呢?或者终极的通用人工智能?Luca Rossi探讨了未来的九种科技进步的可能性,原文发表在Medium上,标题是:9 Terrifying Technologies That Will Shape Your Future。篇幅关系,我们分两部分刊出,此为第二部分。

  通用人工智能(AGI)是我们需要创造的最后一项发明,人工超级智能(ASI)则要么会为我们建立起一个乌托邦,要么会把我们向。

  Nanites是有朝一日会围着我们到处转的纳米机器人。它们太小了,小到你看不见(除非成群结队),但却无处不在。它们会存在于空气里,水中,附着在表面、食物、我们的身体、尿液以及粪便里面。

  它们可用于清洁,3D打印任何东西,治愈大多数疾病,探索其他星球,控制天气以及进行许多其他的科幻活动。

  原因永远都是一样:怕黑客。谁控制了纳米机器人,谁就能控制一切。虽说分布式系统比集中式系统弹性强些,但智能病毒足以摧毁几乎所有的东西。只需对一个纳米机器人进行编程,即可将其代码复制到其他的纳米机器人身上,然后设定一小时后自毁。到时候你就眼睁睁地看着世界崩溃吧。

  黑客永远都是问题。但是,入侵银行帐户是一码事,黑掉空气、海洋、建筑物和人体则是另一回事。这一切只需要有一个聪明的,目的明确的、满腔怒火的人来世界。

  另一方面,魔高一尺道高一丈,安全性也会跟黑客技术一起发展。像纳米机器人那样进的技术是有望做到安全可靠的。这不足以纳米机器人不会摧毁我们,但我认为情况不至于会那样。

  设计婴儿的目的是创造出基因强大的人类,这种婴儿不会有疾病且具备你想要的一切特性。你可以创造出一个高大、聪明、善良、体格健壮的小孩,不必去依赖遗传上中彩票一样的随机性。

  害怕基因改变很正常。围绕着基因的问题通常可归结为想“扮演上 帝”,因为这意味着生命本身的结构。我们的基因可能会创造出甚至不是人类的东西来。

  如果我们认为有设计出具有特殊功能的婴儿的需要,就仿佛我们赋予了这些特性比人类生命本身还要高的重要性。

  在遗传差异方面我们一直都有麻烦。这些差异,比方说人种差异一样,往往会反映在阶层差异上。几十年前,尤其是在美国,黑人和白人仍属于两个不同的社会阶层。现在,已经不存在这种差异,但在人的思想里面仍然有强烈的存在(只要看看现在美国正在发生的事情就知道)。

  设计婴儿可能会带来另一类问题,这类问题甚至比种族问题以及讨论冷冻人的时候描述的那种问题还要严重得多。当富人开始设计完美婴儿而穷人却负担不起的时候,你觉得会发生什么呢?社会会发生骚乱以及#undesignedlivesmatter(编者注:模仿黑人的命也是命,未经设计的命也是命)运动吗?

  但是,我们应该感到害怕的唯一真正的原因是刚刚将到的那个,也就是我们存在出现新的社会鸿沟的风险。

  同时,优生说必须放在社会背景下予以讨论。今天的优生学之所以变成这么坏的一个词,主要原因是干的那些事。

  只要那些“不一样”的人没有受到区别对待,并且允许大家跟自己喜欢的人结为伴侣,那设计婴儿就不仅应该是OK的,甚至还应该受到鼓励。

  说真的,设计婴儿的特性而不是让随机性替你选择有什么问题吗?如果你知道自己患有遗传病,你还会让你的小孩冒得这种病的风险吗?我不知道你怎么看,但我认为在这种情况下,不去设计自己的小孩是很的。

  我真的很想把话说清楚。如果在受孕(或在胎儿获得意识之前进行,尽管我在这里不想主张堕胎权)之前进行的话,优生学并不是天生就不好的。如果你知道未来的孩子会得病,你难道不想让他们避免度过痛苦的一生吗?

  如果这种治疗你负担不起,而你的孩子一出生就患有这种疾病,这并不意味着他们就不应该得到所有的爱。他们不是“没人要的”。你只是想给他们更好的生活。而且你依然“无条件地”爱他们。他们对你的价值不亚于遗传上完美的孩子。

  问题不在于基因改变本身,而在于社会。问题在于我们让遗传特征定义了我们,而它们应该仅仅是特征。任何人都应当拥有一个健康快乐的孩子。为什么仅仅因为害怕自然或做对就得冒遭受不必要的痛苦的风险?

  增强现实(AR)和虚拟现实(VR)你可能已经熟悉了。但沉浸式现实(IR)和脑机接口(BCI)你可能还不太熟悉。

  IR就是通过把现实注入到你的大脑来让你沉浸在另一个现实之中。换句话说,IR是直接了你的脑电波来创造体验。

  这种需要BCI作为接口。想象一下,你可以对自己的大脑进行重新编程。由于大脑几乎是你体验到的一切事物的源头,因此对大脑进行控制的能力常强大的。

  通过BCI,你不仅可以沉浸在另一个现实之中,还可以恐惧,改变自己的性格,在一秒钟之内阅读1000本书,跟他人进行心灵交流,控制机器人(包括纳米机器人),通过控制跟你大脑连接的物体,还可以获得许多其他的科幻小说才有的超能力。

  一个是对现实的。IR(尤其是用于视频游戏里面的IR)会让你失去跟实际现实的联系。与实际现实相比,你在IR花费的时间更多。你可能会再也意识不到前者了。

  二是BCI可以让你变成某种不是人的东西,或者至少会你的基本的人类体验。当你获得上述所有的超级能力时,你会变成什么样的人?如果你可以像软件一样对自己的大脑进行重新编程,你的生活会变成什么样?当你只需要通过心灵进行交流时,跟他人交谈的基本体验就变得过时了,那时候又会发生什么?

  自石器时代以来,跟现实失去联系一直就是人类的习惯。七万多年前(甚至更早),我们发明了小说。从那时起,我们的小说创作能力就在不断得到改善:口头故事,书面故事,表演,电影,视频游戏,虚拟现实。

  那只是人性的一部分。只要你能够赋予自己的生活以意义,那么你大部分时间花在哪个现实上(不断是真实的还是虚拟的)又有什么关系呢?见鬼,甚至我们自己的现实可能也只是模拟的。但这并不意味着它就没有意义。只要你有意识,你的生活就有意义,而这跟你生活在哪个现实无关。

  但是,如果BCI所做的不只是让你沉浸于另一个现实之中呢?如果它们改变了你的思维结构该怎么办?就像许多的其他东西一样,这取决于事情如何演变。

  我认为BCI的超能力在本质上不是一件坏事,就像咖啡给你提神的时候不是一件坏事,酒精在让你有点头晕的时候也不是一件坏事,而野草在你稍微放松一下的时候也不是一件坏事一样。(抱歉了,保守主义者们)。

  但是,如果你过度使用了会怎样?如果这会上瘾又该怎么办?如果不那么像咖啡而更像可卡因该怎么办?呃,再次地,这得看情况如何演变。社会将会在必要的时候提出监管这些体验的规范,而心理学家和神经病学家应该在这些技术变得司空见惯之前更好地了解这些技术对我们思想的影响。

  继续上一条,不妨把它的思延伸到极限。你不仅把自己沉浸到另一个现实之中,而且带上包裹行李,搬过去那里。

  我最近刚看完了新的Amazon系列剧《上载新生》(Upload)。我你也应该看看,很棒。

  这最终可能真的会变成现实。你的身体可能会死,大脑可能会死,但是你大脑里面的信息可以导出并存储到数字设备上。你的想法将会是硬盘,U盘或云端的一个文件。然后,你可以通过一种计算机程序继续生活,这个程序会以类似于电刺激改变大脑结构的方式来改变哪个文件的结构。

  是的,问题在于,认为你可以生活在U盘里面的想法是疯狂的,但是认为意识必须依赖于生物基质的想法也很疯狂。神经元是由蛋白质还是由信息位组成的有关系吗?为什么?

  这甚至不像你的意识存储在你特定的脑细胞里面那么简单。你的神经元一直在变化,但是你的意识始终都存在(是的,总会有新的神经元被创造出了,即使神经元不会繁殖)。意识必须存在于信息之中,因此它也可以存在于U盘之中。理论上是的。

  想象一下,如果上传之后意识没有被保留会发生什么。如果每个人最终都被上载的话,我们基本上就了。留下来的就只剩一个不知道在跑什么的计算机程序,仅此而已。

  我们可能永远都不会知道答案。你没法去问某人是否有意识,答案显然是肯定的,因为这依赖于你在人脑里面可以找到的同样的记忆和现象。

  我个人认为意识会保留下来。更准确地说,我认为意识不是“存储”进大脑或U盘里面中的,而是在互动的情况下出现的,无论那是突触冲激还是CPU周期。但是我们没法真正证明这一点。

  这并不意味着我们就应该忽略这个问题。意识上传有可能最终会实现,因此最好让神经科学家,工程师和哲学家至少先设法找到一个答案。

  通用人工智能(AGI)是我们需要创造的最后一项发明。AGI是一种像人类一样可以学习任何东西的AI,而不仅仅是像当前AI那样只能精通一项特定任务。

  当AGI被创造出来时,它会通过变得更加智能来不断地改进自己。到了某个时候,它会变工超级智能(ASI),智能到我们在它面前就像蝼蚁一样。

  到那时,可能会发生两件事情。ASI要么会为我们建立起一个乌托邦,要么会把我们向。非此即彼,没有中间线。

  像《未来终结者》、《机械姬》、《2001:太空奥德赛》、《超验骇客》这样的电影均展示了当AI变得之后假想中的世界会变成什么样。

  大家对此有很多的困惑。有些人认为,AGI永远也不可能创造出来,因为关于人类思维的“某些东西”是没办法复制的。

  到了一定时候AGI可能会被创建出来,因为我们没有理由相信人的思维,尤其是关于人类智能方面存在那个“东西”。另外,AGI也不会获得意识,因为智力和意识是两回事。

  人工智能的问题在于,很难说出它的目标和边界是什么。我们想法很乱,我们被弄糊涂了,我们不知道自己想要什么。

  如果AGI的目标跟我们的目标不符的话,我们就会遇到智能体的“对齐问题”(Alignment Problem),并且可能会发生非常糟糕的事情。

  不妨以回形针最大化器(clip maximizer)思想实验为例。像制造回形针这样的简单任务就有可能会给我们带来风险。为什么?

  因为AGI总是会去寻找实现其目标最有效的方法。比方说,它会寻求把地球的所有原子(包括我们的身体在内)都变成回形针。

  如果我们明确要求不能我们,它仍然会设法去找到漏洞,让我们的生活痛苦不堪。为了避免这种情况,我们必须设定要避免的每一个条件。这可不是简单的事情。

  这不是说AGI会主动去尝试干掉我们。但想让它不我们会变得极其困难。为了过上美好生活,我们需要很多的东西,我们得确保AGI不会错误地掉那些美好的东西。

  在某些情况下,AGI甚至会主动想我们。由于我们是如此的不可预测,因此AGI可能会认为我们会感到害怕,试图它实现我们自己交给它的目标。

  如果你还想进一步探索这一主题,你可以去看看Nick Bostrom写的《超级智能》。此书用语非常的学术性,但是值得一读。

  从15岁开始,我就梦想着要开发一个AGI。现在,我的梦想是确保当AGI到来的时候不会我们。

  只有在用智慧的改进为指导的情况下,技术改进才会是好的改进。如果我们没法就如何使用类似神一样的技术做出明智选择的话,那我们注定是会失败的。

澳门皇冠真人直营,澳门皇冠真人直营网站,澳门皇冠真人直营娱乐