“即将到来的富足时代”马斯克访谈摘要

发布于: 雪球转发:3回复:4喜欢:4

XPRIZE基金会创始人Peter Diamandis1月3日晚就“即将到来的富足时代”主题采访了埃隆。埃隆谈到了乐观主义、生儿育女、xAI寻求真相、对未来充满好奇和兴奋。

瓦砾摘录了埃隆和Peter对话的一些要点:

a. 新闻太负面了,老实说,看新闻让我很难过。不小心看到新闻,我就会很难过。每天的新闻都试图回答这样一个问题:今天世界上发生的最糟糕的事情是什么?世界很大,全球有80亿人口。在地球的某个角落,每天都有可怕的事情发生。

b. 作为一种进化上的不对称性,我们对危险的反应比对奖赏的反应更大,这是有道理的,因为危险的后果可能是致命的。

比如这个消息:如果你去那边,那里有一头狮子会吃了你,或者某个邻近的部落会杀了你。这样游戏就结束了,你出局了。而如果消息说,那边有一丛漂亮的浆果树,这是个不错的消息,但可有可无。

忽略前者,你会死去,忽略后者,你会挨饿,而死亡比饥饿更可怕。任何对负面新闻的反应不如正面新闻的人,都不会获得成功。

c. 电池产量的增长速度是汽车的数倍,在某些情况下,几乎是汽车生产速度的10倍。对电池的需求量很大。

随着全球用电量的增加,如果能缓存能源,电网的能力实际上比没有缓存时要大得多。

绝大多数电网都假设没有缓存,因此,他们必须根据峰值输出来确定发电厂的规模。峰值输出通常是炎热的夏天白天,而到了晚上,输出功率可能只有一半,最乐观的情况是一半,有时甚至只有十分之一。

因此,基本上,几乎所有地方的电网都是为多余的电力输出而设计的。而如果用电池缓存电力,就能将电网的输出功率提高两到三倍。

d. (直连手机的星链卫星)刚刚升空了。我们还需要证明它是否能正常运作。但即使这些早期卫星不能运作,从物理学的角度来看,我们也有信心它们能运作。

这是一个挑战,因为我们必须模拟地面上的信号塔,这样手机才能接受信号。例如,我们必须进行多普勒补偿,因为有光速的限制。

e. Peter:你想要至少活到100岁,对吧?

埃隆:我想,这取决于我是否会患上老年痴呆。我不想成为社会的负担,也不想患上痴呆症而变得什么都不知道。我宁愿死去。

f. 人口过剩完全是胡说八道,一派胡言。地球人口不足,而不是人口过剩。

g. (关于星舰上的传感器数量)我想,如果把一切都算上,应该有几千个传感器。我们有39个发动机,大部分传感器都是为它们准备的。

h. 学校的变革非常缓慢。他们似乎不再教学生如何写好字、学好数学和历史等基础知识。我对教育中渗透的整个“觉醒”议程和意识形态感到担忧,这实际上是对教育的破坏。

如果我看看我的孩子们是如何接受教育的,他们似乎主要是通过YouTube和Reddit接受教育的,我想,还有X。

i. 我不知道2030年的世界会是什么样子。而我们无疑正生活在一个最有趣的时代。一般来说,我认为一个通用的生活准则是,与其悲观而正确,不如乐观而错误。

j. 我们在法律法规的积累方面确实存在一个根本性的问题。因为它们不朽,而人类会死去,自然而然地,每年都会有法律法规的积累,直到最终一切都变得不合法。

k. 大家可能都知道,司法部正在起诉SpaceX只雇用美国永久居民和美国公民。我们之所以这样做,是因为我们被明确告知,如果我们不雇用美国永久居民,将构成违反国际武器贸易条例(ITAR)的行为,SpaceX的整个管理团队和董事会都会被送进监狱。

l. 我确实认为,拥有资源的聪明人应该关心文明的福祉、文明的未来,即使他们并不特别利他。因为没有文明,你就无法存在。如果文明崩溃,一切就都完了。

m. Peter:成为亿万富翁的最佳途径就是帮助亿万人。世界上最大的问题,就是世界上最大的商机。

n. 如果你想知道没有文明的生活是什么样子,就去试试在森林里裸体生活一天吧。你赤裸着身体,感到恐惧,并很快就会意识到文明的美好。你要吃虫子,还会被虫子吃掉。

o. 人类首次植入Neuralink希望很快就能实现,也许就在本月或下个月。这只是让瘫痪和截瘫者能够控制手机和电脑的首次尝试。

我们的第一款产品,本质上是心灵感应,也就是遥感。

第二款产品暂称为“盲视”(Blindsight),即使有人失去了双眼和视神经,我们也能让他重见光明。

p. 我认为我们应该采取这样的立场,即我们实际上有作为公民的责任生育孩子,以至少保持人类人口不变。理想情况下,我们应该增长人口,但至少不应该出现人口崩溃,而这就是我们目前所面临的情况。

q. 我认为人们应该对未来持乐观态度。地球能够承载的人类数量远远超过目前的水平。当下的危险不是人口爆炸,而是人口崩溃。因此,我鼓励尽可能多的人生育孩子。理想的情况是生育很多孩子,这样可以弥补那些因为各种原因没有孩子的情况。

r. 目前,专门用于人工智能的算力似乎大约每6个月增加10倍。

我最近听说,一个吉瓦级的人工智能计算集群在科威特之类的地方建造。它使用了70万块V100,这比目前用于生产的H100高出两代。这是一个惊人的计算量。

那只是我目前听到的最高算力集群,有一个500兆瓦的集群正在安装,还有多个百兆瓦级的设施正在安装中。

我甚至不清楚人们用这么多算力做什么。因为就算把人类有史以来创造的所有数据加起来,你也会很快就没有什么数据可以训练了。

s. 人工智能可能出错的一种情况是,“灭绝论”哲学被编程到人工智能中、无论是暗示还是明示。

大约一年前,《纽约时报》头版上有这么一个报道。一位“灭绝协会”的头头,有人引用他的话说:“地球上有80亿人,如果一个都没有就更好了。”

t. 我曾经养过一只小约克夏梗犬,他个子小小,有点讨厌,老是咬人,所以我叫他霍布斯。我会告诉来访的朋友们,“小心这只狗”。他们看着这只迷你的约克夏梗,哈哈大笑,然后它就会咬他们的脚踝。

u. 我不认为我们一定要让人们长生不老,或者活得很长,比如几千年。我认为这有可能导致社会僵化。但我认为,解决老年痴呆和治愈癌症显然是件好事。

v. 我认为人工智能安全之路,就是要建立一个最大限度追求真相的人工智能,承认犯错,保持最大的好奇,我认为这最有可能为人类带来好的结果。

w. 严格追求真相,始终承认一定程度的犯错和最大限度的好奇心,这就是xAI的目标。公司的座右铭是:了解宇宙。这是一个很好的使命,但需要一些时间。

x. 有一段时间,我对人工智能感到沮丧。但后来,我宿命论地说:即使人工智能会终结全人类,我想不想亲眼目睹?

我想,出于好奇,我更希望能亲眼目睹。显然,我希望人工智能对人类极为有益。但让我不再那么焦虑的是说,好吧,即使是世界末日到来,我还是很想看看。

$特斯拉(TSLA)$

全部讨论

01-05 23:05

感谢

01-12 12:58

我刚打赏了这个帖子 ¥6,也推荐给你。

转发学习

01-05 12:56

感谢翻译。新闻确实大多数是噪音