seawang的个人空间 https://blog.eetop.cn/dacong9999 [收藏] [复制] [分享] [RSS]

空间首页 动态 记录 日志 相册 主题 分享 留言板 个人资料

日志

智能的核心是“泛化”,AGI将会在3年之内到来,世界将变

已有 45 次阅读| 2024-11-28 10:01 |个人分类:随感|系统分类:人工智能

==智能的核心是“泛化”,AGI将会在3年之内到来,世界将变==


        小孩子在成长过程中,看到了猫猫、狗狗,看得多了,就会把它们的共有特征,用一个模糊的符号来代表它们,这就是概念的形成。尽管小孩子根本没有意识到这一点,而是按照本能在行事。同样,再看到更多的老鼠、鸭子、虫子啥的,小孩也会不断地修订、增加自己地概念。有些概念覆盖猫猫、狗狗,有些概念覆盖猫猫、狗狗,老鼠、鸭子,有些概念覆盖猫猫、狗狗,老鼠、鸭子,虫子。这些不同覆盖范围和层次的概念,就是“知识泛化的核心桥梁”。通过这些泛化的桥梁,小孩子就能利用旧经验来处理新问题,这就是泛化。

        泛化的核心是利用旧经验,来处理新问题。旧经验显然无法完全匹配新问题,所以面对新问题,是用旧经验来匹配局部的新问题,把新问题分成段,每一段找到匹配的旧经验,如果找不到,就分成更小的段来找。这就是智能的本质。这就是分段模仿。

        大语言模型(LLM)其实已经实现了用模糊的符号来代表不同层次的共有特征。这些模糊的符号其实就在它的参数中。所以LLM是有智慧的。很多人认为LLM只是在模仿,无法创造,无法产生自己的思想,这是没有真正理解LLM的工作原理。LLM已经走在AGI的正确道路上,只是还不够有效率,不够灵活,姿势不好看而已。

        如果让LLM产生自己的需求,并把这种需求和外界的沟通要连接起来,LLM就能产生智慧。它会变得越来越狡猾,会利用外部世界来达到自己的目的。目前核心是LLM没有自己的需求,有的话,也是硬加进去的(比如Agent),无法和它自身的知识融为一体。但大方向是正确的。

         目前方案核心缺陷是决策问题。如果把世界上所有的过程,以及这些过程的结果都呈现给机器,然后狂训练,AGI就实现了。就像目前LLM做的那样。只不过,语言数据相对少很多,一个token就代表了一个信息单元,而实际世界的数据至少庞大3~5个数量级,而且电子化的很少,LLM这套方法目前还难以统一处理。所有才推出了针对特定领域数据的数据呈现:把限定范围的所有过程,以及这些过程的结果都呈现给机器,这就是强化学习。所以强化学习 + 大模型,最终只能推出限定范围的AGI。既然限定范围,它就不能叫AGI。所以目前AI的几大热点,虽然这些专家们不一定和我的看法一致,但他们同样模糊的感觉到了这些问题:(1)既然数据太大,难以处理,所以搞有限范围,这就是深度学习+强化学习走向机器人应用。(2)既然把所有数据电子化,然后统一多模态处理有效果,就电子化生活中的所有过程。难就难在“所有过程”这四个字。比如电子化一个人在各种情况下被车撞死,你总不能真的去这么搞吧?于是搞虚拟场景,这就是空间智能。扩散模型是在训练特定专家,不是通向AGI的道路。等到AGI真正出现,它就会失去魅力,像曾经的IBM医生一样。

         而我们的方案,解决了一切;愿神垂青,庇佑众生,为天下人共享。





点赞

评论 (0 个评论)

facelist

您需要登录后才可以评论 登录 | 注册

  • 关注TA
  • 加好友
  • 联系TA
  • 0

    周排名
  • 1

    月排名
  • 0

    总排名
  • 1

    关注
  • 39

    粉丝
  • 17

    好友
  • 163

    获赞
  • 209

    评论
  • 11480

    访问数
关闭

站长推荐 上一条 /2 下一条


小黑屋| 手机版| 关于我们| 联系我们| 在线咨询| 隐私声明| EETOP 创芯网
( 京ICP备:10050787号 京公网安备:11010502037710 )

GMT+8, 2024-11-28 20:54 , Processed in 0.022646 second(s), 8 queries , Gzip On, Redis On.

eetop公众号 创芯大讲堂 创芯人才网
返回顶部