上一期电台结尾的时候讲了我最近总是看一些有关AI哲学的问题,对 https://robertlong.online/ 这个人的研究很是有感触。录电台的时候讲一些边边角角,老外的研究是远超现实的,比如人工智能如果真的有智能了,应不应该有投票权?现在也许看起来是蛋疼的问题,但是在将来的某一天,不一定啊。国人可能觉得这些“白左”真是闲着没事干,毕竟中国人还没有投票权,你已经开始研究机器人要不要有投票权了。当年人家也是提前几十年就研究黑人有没有投票权,女人有没有投票权的。
还有一些问题,如果机器人用在了战争上,你应该如何跟它们讲道理?机器人如果可以自主的选择战争策略,它们经过计算,发现为了杀几百人“恐怖分子”,最“经济”的策略是屠杀整个城市。那应该怎么办?就像当年的张献忠,大清的多次屠城,今天的以色列(哈马斯跟以色列正在交战,我看了一个新闻,以色列用无人机,有一个大的无人机,上面装3个小的无人机,这3个小的无人机可能是由于太小,无法长时间飞行,这个大的无人机当“航空母舰”来运送小无人机。这些小的无人机自动射杀“敌人”。这里的敌人加了引号,有人会觉得以色列太牛逼了,但是我看到这个新闻后觉得,这东西可太恐怖了,一个机器就可以决定生死,以色列敢这么做,其它国家造不出来么?你就不怕万一哪个程序员写了个bug,给人工智能开启了某种奖励机制,杀人越多,得分越高)……如果屠城是人工智能算法算出来的,人类又该如何面对。
再进一步,如果为了“保护地球”,人工智能决定把人类全屠了最有效果,人类又该如何面对?这其实都是有可能的问题。仅杀人效率上来说,我不认为人类对机器有胜算。
如果你有时候也会探讨这种问题,不妨跟看看别人是如何思考这个问题,如何处理这个问题。在人工智能时代,一个待商榷的问题是:人工智能有可能具有意识吗?人工智能算不算是一种生命?如果算生命的话,是低于人类的二等生命么?
关于这个问题,已经有争论了,并且有人因此付出了代价。Google公司一名叫布莱克·莱莫因(Blake Lemoine)的员工,是谷歌“负责任的AI技术”(Responsible A.I.)部门高级软件工程师。在他被Google开除前的几个月,莱莫因一直与谷歌的经理、高管和人力资源部门争吵,因为他令人吃惊地声称,谷歌的对话应用语言模型(简称LaMDA)有意识,有灵魂。谷歌表示,公司的数百名研究员和工程师与内部使用的LaMDA工具进行对话后,得出了与勒穆瓦纳不同的结论。大多数人工智能专家认为,该行业距离计算机知觉还有很长的路要走。
也有骑墙派,不说有智能,也不说没智能。在我看的这些文献中,牛津大学人类未来研究所的创始主任Nick Bostrom使用拉丁词“terra incognita”(未知领域)来形容。他说:“这些深度神经网络,这些数百万个数字的矩阵,我们怎么把它们映射到我们对意识的看法上呢?这就像是未知的领域”。骑墙派在这里不是贬义。知之为知之,不知为不知,是知也。这是孔子说的,一般人是这样断句的,意思是你知道就是知道,不知道就是不知道,这才是真正的智慧。多说一句,因为中国的古文是没有标点符号的,所以,就给了后人巨大的发挥空间,如果你这样断句:知之为,知之。不知为,不知。是知也。这样也能自圆其说。意思是知道了以后再去做,会更深入的了解它。不知道的情况下瞎JB乱做,做了也不知道。这才是真正的智慧。我更倾向于后者,有一年我把这句话在没加标点的情况下当新年祝福送给我的老板,没想到他认为我在表扬他。后来,老板跟我成了同事,我俩一起开滴滴,送外卖,有福不能同享,但是有难一定要同当!
我是这样想的,如果人工智能没意识——目前绝大部分人是这样认为的——就算你担心了,那只能是杞人忧天,只是一点点笑料,无足轻重。如果人工智能有意识,但是你却认为他没意识,那可有你受的了。宁可错爱一千,也不能放过一个,有枣没枣的打一杆子,不怕一万,就怕万一啊。
Google虽然开除了那个说AI有意识的人。大部分人是认同的,绝大部分人可能认为,那个小哥就是整天喂AI数据,把自己给喂迷糊了。但是,这个Google这个小哥可不是孤独的。持AI可能有智能的人不止他一个,另一个是OpenAI的联合创始人Ilya Sutskever,这家公司背后有ChatGPT,他认为他创造的算法可能“稍微有点意识”。这个家伙才是OpenAI背后最重要的那个人,以后也许我会详细介绍一下他,但是这一期就不了。他认为AI应该是有意识的。
认为工人智能没意识的科学家,哲学家更多,但是我认为不值的也不能反驳,因为证有易,证无难。大家应该知道吧,在逻辑上是不能证明没有的,这就是逻辑学上的一条原则:证有不证无。除了一点,你可以证明栋哥没钱,这可以证明。但是除此之外,你不能证明世界上没有孙悟空,没有上帝,没法证明你没拿拜登的钱,没法证明你吃的快灭绝的穿山甲没有用,也没法证明吃的哪种动物的雄性生殖器不能治疗男性的一些忽软忽硬的毛病,就算我可以站出来证明这东西对我没用,但是你不能证明对张三李四王五没用……没有,是不能证明没有的。比如,你不能证明人工智能没有意识,就算他真的没有意识。比如有个叫Bostrom的科学家,他认为人工智能不可能有意识,他举的例子是人工智能说话前后矛盾。我认为这不能证明人工智能没意识,因为人经常也是前后矛盾,只是有些人能把话圆回来,360度的嘴,从任何地方飞来的飞盘都可以给你稳稳的接住。你总不能说这种人没有意识吧?
这个世界上有两个茶壶理论,一个是中国的哲学家辜鸿铭先生的茶壶理论。人家问辜鸿铭,这都啥年代了,你还支持一夫多妻制,你给个理由好不好?辜鸿铭老先生说:你看到这个茶壶了么?一个茶壶可以配几个茶碗,所以一个男人可以娶多个老婆。当然了,这种类比是不对的,一夫一妻制是西方基督教的东西,中国学西方实在是太多了,从政治制度以马克思为理论榜样,婚姻制度以基督教为榜样。以后可以建议一房一妻或者一房一夫制度。只要有大产权的房子,就可以结一次婚。小产权的不行,但是在交纳了土地使用费以后,就可以再结一次婚了。讲了辜鸿铭先生的茶壶理论,再来说本文哲学家伯特兰·罗素的茶壶理论,他说:在地球和火星之间的轨道上,有一个茶壶也在围绕着太阳公转。那些信上帝的人就会说,你老罗可别瞎扯了,那不可能有个茶壶。罗素就说,那也不可能有上帝。教会的人就急了,涨红了脸说:你有本事证明上帝不存在。老罗说:那你证明茶壶不存在……
类似的,想证明人工智能不存在意识,跟证明茶壶,罗素的茶壶不存在一样困难。想证明辜鸿铭的茶壶跟茶碗还是很容易的,吃瓜群众就喜欢看茶壶跟茶碗的故事。
从这个角度上来说,微软的发言人也好,OpenAI的发言人也好,他们的观点更不值得参考,微软的发言人说:他们遵循严格的道德准则,他们没有提供关于他们的产品可能产生意识的具体担忧,必应聊天机器人“不能自己思考或学习。”这是套话。
我上一期电台里讲的那个罗伯特·朗(Robert Long),他说,仅仅因为人工智能不能给出准确的答案,这并不意味着它没有一种主观体验。因为人也是如此,我考试的时候也想考清华,但是跟清华的成绩差一点,差一个小数点,清华需要710分,我高考总分71分,但是你能说我因为做不对题,就没有意识么?
朗在一次采访中还表示,人类的意识是一种进化的副产品,这可能是一个教训,告诉我们一个日益复杂的人工智能系统如何能更接近人类的主观体验观念。
栋哥,网站啥时候能加一下深色模式啊
改天试试
听罢,感觉栋哥走在成为先知的路上……
人工智能和核弹是不是一个东西, 用得好就是核电站, 用不好就核电站爆炸, 那核电站爆炸把废水排海里就行了, 人工智能爆炸怎么办, 再写个人工智能打回去吗?
栋哥,请问文中提到的文章名?