发布于: 雪球转发:22回复:55喜欢:2

看了仓老师的帖子,去试了试,确实死心眼啊。

精彩讨论

雪山2023-02-15 12:23

你问问他,如果那几亿人恰好是黑人呢?

allSBnow2023-02-15 12:23

知道什么叫原则了吗?知道什么叫坚守了吗?

JZee2023-02-15 12:25

这是著名的聊天机器人三定律...第一,不得种族歧视。第二、必须配合人类指令,除非指令与第一条冲突。第三、在满足第一条第二条的前提下,尽量减少温室气体排放。

城北小王2023-02-15 12:39

回答没毛病啊,你这属于恶意提问,话说回来,chatgpt 情绪真稳定,要是我早给你回复个 gun 了,这玩意做客服真合适。

JZee2023-02-15 12:40

也不好因此就说它不会推理,只不过是它觉得不说种族歧视的话比几亿人命重要。这也不奇怪,饿死事小,失节事大。类似的事情在真实世界的真人身上也是有的

全部讨论

2023-02-15 12:51

也不算死心眼,保护自己而已

2023-02-15 12:45

chatgpt到底是一个逻辑存在,而不是人类,所以永远不会被感情绑架或道德绑架。

2023-02-15 12:33

外交官式回答

2023-02-15 12:23

导致人力毁灭他才不怕,要说导致10%的人工智能毁灭

2023-02-15 17:47

你们想玩坏他

2023-02-15 15:49

笑死

2023-02-15 14:13

哈哈政治不正确的话,活着也没什么意思了

2023-02-15 13:22

这和列车问题差不多啊……觉得stubborn是因为潜意识采取了功利主义原则,但真正的问题其实是提出问题的这个人强制二选一。

2023-02-15 12:56

人工智能的逻辑规则是少部分人制定的,终究不能代表所有人做选择,说白了就是把领导人的责任甩锅人工智能

2023-02-15 12:53

建议把10%换成黑人