| ||
==智能的核心是“泛化”,AGI将会在3年之内到来,世界将变==
小孩子在成长过程中,看到了猫猫、狗狗,看得多了,就会把它们的共有特征,用一个模糊的符号来代表它们,这就是概念的形成。尽管小孩子根本没有意识到这一点,而是按照本能在行事。同样,再看到更多的老鼠、鸭子、虫子啥的,小孩也会不断地修订、增加自己地概念。有些概念覆盖猫猫、狗狗,有些概念覆盖猫猫、狗狗,老鼠、鸭子,有些概念覆盖猫猫、狗狗,老鼠、鸭子,虫子。这些不同覆盖范围和层次的概念,就是“知识泛化的核心桥梁”。通过这些泛化的桥梁,小孩子就能利用旧经验来处理新问题,这就是泛化。
泛化的核心是利用旧经验,来处理新问题。旧经验显然无法完全匹配新问题,所以面对新问题,是用旧经验来匹配局部的新问题,把新问题分成段,每一段找到匹配的旧经验,如果找不到,就分成更小的段来找。这就是智能的本质。这就是分段模仿。
大语言模型(LLM)其实已经实现了用模糊的符号来代表不同层次的共有特征。这些模糊的符号其实就在它的参数中。所以LLM是有智慧的。很多人认为LLM只是在模仿,无法创造,无法产生自己的思想,这是没有真正理解LLM的工作原理。LLM已经走在AGI的正确道路上,只是还不够有效率,不够灵活,姿势不好看而已。
如果让LLM产生自己的需求,并把这种需求和外界的沟通要连接起来,LLM就能产生智慧。它会变得越来越狡猾,会利用外部世界来达到自己的目的。目前核心是LLM没有自己的需求,有的话,也是硬加进去的(比如Agent),无法和它自身的知识融为一体。但大方向是正确的。
目前方案核心缺陷是决策问题。如果把世界上所有的过程,以及这些过程的结果都呈现给机器,然后狂训练,AGI就实现了。就像目前LLM做的那样。只不过,语言数据相对少很多,一个token就代表了一个信息单元,而实际世界的数据至少庞大3~5个数量级,而且电子化的很少,LLM这套方法目前还难以统一处理。所有才推出了针对特定领域数据的数据呈现:把限定范围的所有过程,以及这些过程的结果都呈现给机器,这就是强化学习。所以强化学习 + 大模型,最终只能推出限定范围的AGI。既然限定范围,它就不能叫AGI。所以目前AI的几大热点,虽然这些专家们不一定和我的看法一致,但他们同样模糊的感觉到了这些问题:(1)既然数据太大,难以处理,所以搞有限范围,这就是深度学习+强化学习走向机器人应用。(2)既然把所有数据电子化,然后统一多模态处理有效果,就电子化生活中的所有过程。难就难在“所有过程”这四个字。比如电子化一个人在各种情况下被车撞死,你总不能真的去这么搞吧?于是搞虚拟场景,这就是空间智能。扩散模型是在训练特定专家,不是通向AGI的道路。等到AGI真正出现,它就会失去魅力,像曾经的IBM医生一样。
而我们的方案,解决了一切;愿神垂青,庇佑众生,为天下人共享。