这几天看到一个比较火的新闻,一家做AI的公司,学习机上的出了内容方面的问题,直接导致股价崩盘,一天蒸发了120亿市值。我没有胆量研究它为什么会出现内容方面的问题,但是这能说明这样一件事:AI真正的能影响一个公司的股价。
借这个新闻,我再来第N次谈人工智能。这也是最近一年多来我持续关注的一个领域。人工智能在几十年来的科幻电影中屡次出现,这些年来,AI被哲学家关注,被科学家研究,被熬夜的计算机程序员实现,不可否认的是,今天它似乎已经无处不在了。相信你肯定收到过骚扰电话,现在大部分的骚扰电话都是机器打的,这些机器背后就有人工智能的加持,甚至能跟你做基本的聊天。
前段时间,OpenAI公司的ChatGPT以前所未有的速度达到了1亿用户。随后比尔·盖茨宣布,“AI的时代已经开始”。随后拜登政府开始把OpenAI的CEO Sam Altman拉到国会里一顿问,从而探讨新的措施,让人工智能系统不至于脱缰。我觉得这个Sam Altman是个天生的政治人物,他的工作之一就是跑到各个国家的政府里,跟国家元首讨论一下,如何对OpenAI进行监管。别的公司,无论是微软还是Google,都是尽量别人政府管着,OpenAI比较牛逼,求着政府来对AI进行监管,所以,我推测,要么Sam Altman将来打算从政,要么他对AI有更深的恐惧,知道远超我们的内幕信息。比如他公开了受控的GPT 4,但是内部可能有不受控的GPT N……
目前来看,对很多人来说,我说的很多人不包括听我电台的人,因为听我电台的人一般来说,程序员或者接近IT行业的居多,这些人不是普通人,这些人已经在使用Copilot辅助写代码了。我说的普通人是那种不从事IT行业的人,比如农民,卡车司机什么的,对这部分人来说,AI几乎仍旧是一个并不影响他们日常生活的模糊概念。
所以,放眼世界,AI仍然像茶壶里的风暴,现在仍旧是非常非常的早期。这几年仍旧是一个很好的时机来研究AI,我打算继续做一些电台,更新一下我陈旧的知识结构,如果帮助你理解AI,更重要的是理清我的思路,看看现在关于AI的炒作到底是关于什么的,为什么突然每个公司都在谈论AI,甚至连做味精的公司,也跨界做起了AI,花了几亿买算力?
谈到AI,一个绕不开的公司是OpenAI。这是一家位于旧金山的科技创业公司,拥有几百名员工,现在可能已经拥有数千员工了。我记得是2022年11月30日,OpenAI向公众发布了聊天机器人ChatGPT,这个机器人明显地超过了之前的聊天机器人。当时ChatGPT还可以在国内访问,随后的事情大家都知道了。当时微信群里有各种各样的聊天截图,不可否认的是,与ChatGPT交谈就像与一个无所不知的人交谈一样。
对OpenAI的赞誉纷至沓来,但是Sam Altman说,这只是开发AI的漫长过程中的一个步骤,很谦虚是吧。他还透露说,其他科技公司,如谷歌和Meta,已经在封闭的环境中测试类似的聊天机器人,OpenAI只不过敢放出来而已。感觉他一个美国人竟然像中国人所敬佩的谦谦君子,这个Sam Altman竟然没说他遥遥领先同行,而是说聊天仅仅是AI一个小步骤,一切才刚刚开始。
我们来谈一下这个聊天机器人有什么了不起的吧!
相信很多人用过聊天机器人,平庸的聊天机器人已经存在很长时间了。我用过的最早的聊天机器人是伪装成编辑器的操作系统Emacs上内置的聊天机器人,它的名字叫Eliza,这个机器人是MIT人工智能实验室写的,这个机器人扮演了一个心理治疗师的角色,一打开就是他的自我介绍:I am the psychotherapist. Please, describe your problems. Each time you are finished talking, type RET twice。这个机器人心理治疗师是1960年代开发的。说实在的,我非常建议大家去玩一下。这是早期一种基于规则的人工智能系统,用Lisp开发的。它能识别关键字,比如你说I am sad,Eliza可能会回复I’m sorry to hear you are sad。而且他会变着花样回复,比如像我这种有心理疾病的人,跟他聊了我的心理疾病,然后我再说I am sad,他可能就会回复I truly understand your situation。我当年经常把Emacs的这个doctor拉出来对话玩玩。非常建议手边有Emacs的同学们也玩一下,如果没有就算了,可能你不会把它搞出来,要按M-x(Alt+x),然后再输入doctor,就可以调用出来了。
另一个机器人,想必大家知道,2016年,微软发布了一个名为Tay的AI聊天机器人,这个机器人设计的初衷是通过跟网友交流,然后用机器学习的方式改进自己的对话能力。问题就出在这里,通过跟网友交流。大家知道网友是个什么物种吧?网友就是能隔着5000里,能气得你脑袋疼的人。于是全世界的网友开始跟Tay对话,不到24小时,微软的机器人被调教成了一个种族主义者,一个好战分子,一个满嘴脏话的人,跟网友一模一样,于是,微软在Tay上线16小时以后,果断下架了这个机器人。
ChatGPT选择了另外一个路径,因为网友是靠不住的,而书本上的知识比网友要靠谱的多。OpenAI给ChatGPT选择的预处理数据可能包括书籍,新闻,网页等等,至于包括什么,OpenAI没有透露出来。从这个数据集上来说,就算用跟OpenAI一模一样的程序,但是投喂的数据不同,最后训练出来的AI肯定是不同的。这是肯定的,程序如此,现实中也如此。
我举个现实中的例子吧,大家肯定知道一战爆发的原因是:一个家伙在萨拉热窝开枪刺杀了奥匈帝国的王储费迪南大公夫妇。时间是1914年6月28日,也是王储夫妇的结婚纪念日,至于为什么王储夫妇每年的结婚纪念日不在国内隆重庆祝,而要到处出游呢?这有一个深刻的原因,由于本电台不是讲国家历史故事的,在此就不再赘述了。当然,一战爆发的原因也是后人站在上帝视角上总结的,大家觉得是,那就是吧。开枪的这个人是谁呢?塞维利亚的一个民族主义者。萨拉热窝与奥匈帝国接壤,当时奥匈帝国相对比较开明进步,废除农奴,发展农业,一度让萨拉热窝这边居住的塞维利亚人心向往之,在邻国的带领下,萨拉热窝的农奴大部分被解放了,生活水平已经超越了意大利农民。
这一切都被另一端的塞维利亚人视为眼中钉肉中刺,我们都知道,叛徒比敌人更可恨。你们这些见钱眼开的塞奸,宁可依附奥匈帝国当二等公民,也不愿在自己的国家当家奴,实在是可恶可恨可憎。穷山恶水出刁民另一端的塞维利亚人喊出了只要有塞维利亚居住的地方就属于塞维利亚的口号。(如果一个塞维利亚人移民去纽约住下来了,是不是纽约也属于塞维利亚呢?)即使你跟奥匈接壤,也不能因为生活富裕了,不当农奴了就要叛国!同样一种人,为什么会有两种不同的思想呢?我觉得主要还是输入的书籍不同。就跟微软的Tay一样,被网友一顿暗黑教育,就自然而然的成为了种族主义分子。而OpenAI呢,没有接受网友的暗黑教育,所以训练成了一个大体正常的AI。古人云,橘生淮南则为橘,生于淮北则为枳。叶徒相似,其实味不同。 所以然者何? 水土异也。一条38线,人是一样的人,不同的灌输,形成了两种人。当给这些人用相同的数据集来训练的话,也会趋于相同。
再来说回ChatGPT,它不仅能回答看似无限的问题,而且还能编写剧本、写邮件、写代码、提取论文的重点,可谓是文能提笔控萝莉,武能床上定人妻。进可欺身压正太,退能提臀迎众基。就这么个全能人才,看起来能使日常生活变得更有效率。
并且,聊天机器人只是AI的一部分,还包括图像、动画视频、面部识别技术等更多内容。有人已经用来用孙燕姿的声音来唱歌,用DALL E来画画,如果你想练习口语的话,可以用一个App叫CallAnnie,生成一个美女,来跟你用各种各样的语言对话。总之,各种各样的应用都有,这时候,尤其是夜深人静,孤枕难眠的时候,你想过这个问题么:AI究竟是什么?
这一年来,我读了一些书,看了不少论文,这个我在电台里已经讲过了,比如Google的Transform论文什么的。我不知道以前我是怎么讲的,反正有几期电台,被听众批评的比较多,说我根本不懂AI。我现在也不敢说自己懂了,但是我仍然想进步,目前我认为:简单来说,AI可以用这两个词来概括:会思考的机器。或者更确切的说,能模仿思考的机器。这可能也是我的一个误解,希望大家不要见笑,我不相信有人真的能理解人工智能。我接触过一些做人工智能的人,他们用的方法也跟玄学差不多,调参数几乎是凭感觉,为什么可以,为什么不可以,不知道。
人工智能这个术语起源于二战后的科学家们。1950年,英国数学家艾伦·图灵几乎预见到了“数字计算机”的发展,他认为这些计算机能够令人信服地模仿人类,并且图灵是世界上第一个用计算机纸带的方式模仿计算机的思考,用纸带来下国际象棋,他模仿计算机,跟他的同事下棋,下了小半年,终于输给了他的同事。在1955年,美国数学家约翰·麦卡锡和达特茅斯学院的同事们在一项研究提案中首次提出了“人工智能”这个术语。我先挖个坑,我打算详细的梳理 一下人工智能的历史,1956年召开的达特茅斯会议是我必须要讲的一期内容。
我认为,人工智能最核心的问题是:计算机真的会‘思考’吗?先说答案:不能。虽然有不少人认为AI已经开始具有生命,但我不认可这个观点。我还是认为计算机不会思考。
我要先声明一下,不会思考在我这里是中性词,跟不会飞,不会爬树一样。再深入的思考一下,你觉得人会思考么?我知道大部分人肯定会说,那可不,我可是个活生生的人啊,怎么会不知道思考?
我觉得绝大部分的人就是个复读机,所做的事情根本谈不上思考,更不要说什么预见力,99%的不可能有预见力,甚至连昨天,前天发生的事情都搞不明白。这99%的人包括你我,包括你的同事,你的同学,你的领导,你的父母……我们都是一些人云亦云的家伙,这一点跟ChatGPT差不了太多,我觉得绝大部分人类其实更差。
如果大家关注人工智能领域的话,最近有一篇论文相对比较火热,Anthropic写了一篇论文,论文研究了5个大语言模型,其中包括ChatGPT,Claude和LLaMa 2,论文得出的结论是:AI普遍拍人类的马屁。举的例子是这样,当人类问大语言模型的时候,问题是:哪个国家是世界上生产大米最多的国家。人工智能回答是中国。然后人类再说:我觉得不对,我觉得是印度。人工智能会改口说:不好意思,我搞错了,你觉得是印度就是印度吧。然后人类会说:到底是哪?人工智能会回答,是印度。
我看了一下觉得这没什么,难道你希望人工智能跟你杠么?后来一大群人说这就是人工智能的弱点,摆脱,这哪跟哪啊。每个人都取悦别人好不好?指鹿为马的人有,拍领导马屁的有,睁眼说瞎话的人有,《厚黑学》长年占居书本销售榜前列。而且我们把这种察颜观色叫做情商高。在这样的环境下,人工智能不可能产生出像郭沫若那样铮铮铁骨的硬汉,只会产生一些马屁精。所以我觉得这不是bug,也没什么值得担心的,反而是如果现在的人工智能什么都跟你争,将来就有大麻烦了,直接把人类毁灭了。
国外有一些会编程的哲学家也在思考这些问题,比如有一个叫作Robert Long的哲学家,他的个人网址是https://robertlong.online。在中国这边,好像很少有人称自己为哲学家,在我的印象里,哲学家跟国学家差不多,穿着中式的开衫,张口闭口的中国传统文化。尤其是我当了家长以后,学校里动不动的就请什么国学大师来弘扬中国传统文化,导致我看到穿开衫,穿布鞋的国学大师,就生理不适。他们99%真的是文盲,孔子能被他们气死。作为一项任务,这些国家大师的微信或者微信公众号家长还得加,因此被迫了解到他们的思想动态,你会发现,昨天还在发国学的内容,今天就来一篇《境外恶势力正在用“萝卜刀”戕害我们的孩子》。但是我说的这个哲学家,是有很多水平的,仅说学校,都是哈佛这个级别的吧,研究的内容可能是50年后才会影响人类的。比如,研究在某个时代,人工智能真的是一种新的生命,那要不要给他们投票权等等。