- 人真正的核心价值在二——第一,做AI做不了的事情。第二,给AI做基建。所以,在AI飞速进展的今天,还是不要过度痴迷于“比别人更会用AI”这件事的好。
- 数据界面:网站、APP、文件本质都是数据的展示界面,或交互界面。出于商业上的原因,过去每个关心的不同数据都在不同的界面上,在这些界面中切换,就像齿轮中那一点点微小的摩擦力,总会带来一点点执行力与心智的消耗。这个过程中,我还会看到许多自己不关心的信息,还需要在界面中反复乱点,还要自己筛选一些信息,还需要自己总结记录……有些数据还是即时变化,需要盯着的……
我需要打开淘票票查看附近电影的排片,打开豆瓣查看电影的评分,打开我的QQ群听听同学们的观后感。
我需要时刻等待你的火车票候补到没有,如果候补成功需要重新安排后续的车票安排,etc。
感觉OpenClaw目前流行,就是把这个摩擦力干掉了!你不再需要在这些界面里流转,不再需要自己做一些手动简单的数据操作,你只需关注和ClawdBot的一个聊天窗口就行了! - 在五到十年内,随着AI产出成本降低以及产品泛滥,大家的付费心态会有较大变化,对AI直接产出的文化产品,付费意愿会越来越低……但在那之前,打个时间差,用新世代的AI产出,去碰旧时代的消费习惯,应该是能趁机赚一笔的。
不过哪怕大家对AI产出付费意愿变到极低,也可以考虑用AI产出获取非金钱收益,再转化为金钱收益。be like 先圈粉丝,最后直播带货收割粉丝(雾) - 各类文化产品,私人定制成本会越来越低,文化市场会进一步去中心化——我说的不仅仅是视频、音频——我就喜欢一个Danking音色的玩机器内容的CS解说、我就想玩一个有巫师3的开放世界战斗但没有主线的RPG(这种喜好听起来似乎有些离谱)、我就想看一部Mygo角色出演的利刃出鞘……本质还是人类的审美爱好差异实在太大,而旧时代拍电影做游戏什么的,成本又太高了。
问题一,用户是否真的能描述清楚自己的喜好,或者在AI的帮助下,找到自己真正的喜好呢?
问题二,创作的形式是什么样的呢?有没有可能是创作者做一个基底雏形预制品,而观众的私人AI基于这个预制品做针对性的调整,就像给预制品洒上截然不同的酸甜苦辣调料,让每个观众都会享受到独属于自己最喜欢的作品的样子呢?
啧,想想感觉很恐怖,如果真变成了这样,人类之间还能有一点点共同语言吗?希望未来不会真的变成这样吧。 - 我无法想象基于目前的大模型去做交互设计 或 玩法设计。第一是大模型没有基于交互的基础数据。大语言模型是用大量文本喂出来的(感谢开源社区和人类历史文本的结晶),多模态是用大量标注的文本和视频喂出来的,那你要去哪找一个被喂了游戏交互的大模型呢?十年内不会有的。第二是真人做游戏总是一边做,一边自己体验,一点点迭代的,大模型写代码也可以自己进行测试自己Debug。但是大模型没有情感反馈,没有办法自己边做边调——就算为它做全套的游戏交互接口,它要怎么判断目前游戏更好玩了or 更不好玩了呢?(等等,真人难道就能判断了吗)
但是在设定好规则和框架的基础上,让大模型自己去跑测玩游戏做决策,尤其是非即时制游戏,肯定还是可行的。AI虽然不知道什么是【爽】,但是可以为它定义单次能打出的最大数值。AI虽然不知道什么是节奏曲线,但是可以定义全流程中HP的变化?大概可以吧? - Agent CLI,Ralph loop 这种感觉本质差异在于 Agent给项目找需求了,不需要人类来想需求了,对于一些项目来说很好用。
- 团体协作:我在大量团队协作中,感到了知识的不通畅。一个模块由谁负责,一个功能是否正确,一个制作流程怎么流转,乃至项目何时上线,项目结构目录怎么组织,这个材质应该怎么配置,项目下一个里程碑如何,仅仅是这些客观知识就存在于不同成员的分布式人脑中。即使没有任何主观决策,客观知识的传递就已经带来了团队协作的损耗。
游戏开发有的时候用文档解决这些问题,但文档总会更新不及时,人员也总有流动。所以总会有出现莫名BUG不知找谁,有问题不知道找谁,优化流程不知道找谁,找人弄明白比解决问题更花时间的情况。按Notion创始人那篇文章的说法(AI Transforming Work Like Steel and Steam),AI或许能解决这个问题?
或许会有一个项目Agent,掌握着这个项目所有的客观信息,与他的对话就可以解决你所需的所有问题。那么关键就在于,这个Agent是怎么掌握保存这些客观知识的的。如果还是需要项目人员自己写文档,那只是给你残缺破损的项目知识库,加一个聪明的图书管理员罢了,但再聪明,恐怕也巧妇难为无米之炊。 - 虽然我没什么数学直觉,但我的数学直觉确实不喜欢这种向量空间相似性的思考模式,Tokenization 加大量标注的训练模式让我想来也充满混沌,但是成王败寇,效果好就是王道!
- https://zhuanlan.zhihu.com/p/2003858916971398866?share_code=xuJSCV6tYrRn&utm_psn=2004224974479697647
这篇文章的作者以一个“自谦”为不懂AI的普通开发者/创作者的视角,提出了许多关于AI发展、商业落地、社会影响以及在游戏开发等具体领域应用的思考。
以下为你逐条对文章中的观点进行点评,分析其合理与不合理(或值得商榷)之处:
观点一:人真正的核心价值在于做AI做不了的事和给AI做基建,不应过度痴迷于“比别人更会用AI”。
- 合理之处:非常清醒的长期主义视角。随着AI工具向着“原生自然语言交互”发展(即越来越聪明,不需要复杂的提示词),所谓“Prompt工程师”这种过度依赖操作技巧的壁垒会迅速贬值。未来真正的护城河,确实是不可替代的人类心智(如审美、情感共鸣、高阶决策)以及底层的数据和算力基建。
- 不合理/商榷之处:低估了当下的过渡期红利。在接下来的3-5年内,“会不会用AI”以及“能不能将AI深度融入工作流”依然会拉开巨大的生产力差距。现在完全不钻研如何用好AI,可能会在到达那个“AI工具极其傻瓜化”的未来之前,就已经被同行淘汰了。
观点二:未来界面将被颠覆,打破网站和APP之间的数据摩擦力,一切归于与AI(如Claude)的单一聊天窗口。
- 合理之处:准确抓住了AI Agent(智能体)的核心商业愿景。现在的互联网是“孤岛式”的,用户需要充当不同APP之间的人肉搬运工。AI能够作为统一的交互中枢,直接调用各类API完成任务,这确实是消灭信息摩擦力的终极形态。
- 不合理/商榷之处:过分迷信“聊天窗口(CUI)”的效率。对于高密度的数据展示(比如看电影排片表、选座、看股票K线图),图形界面(GUI)让人类一目了然,效率远高于阅读一段AI生成的文字或进行多轮对话。未来的主流交互更可能是“AI底层调度 + 动态生成的GUI界面”,而不是纯粹的聊天框。
观点三:AI产出的文化产品未来付费意愿会极低,现在可以利用“时间差”赚旧时代消费习惯的钱,未来靠圈粉变现。
- 合理之处:揭示了AIGC带来的“内容通货膨胀”本质。当生产成本无限趋近于零时,纯粹数字内容的商业价值必然崩溃,用户确实不愿意为量产的AI图文/视频直接付费。利用大众目前对AI能力的不完全认知打信息差,确实是当下很多人的变现套路。最后转向“卖人设、卖情绪价值(圈粉带货)”也是非常务实的转型逻辑。
- 不合理/商榷之处:忽视了“精品内容”依然具有溢价能力。即便AI泛滥,由顶尖创作者利用AI辅助,投入极高审美和叙事能力打造的“神作”,依然会让用户愿意买单。用户拒绝为“平庸的AI生成物”付费,但不一定拒绝为“优秀的AI增强作品”付费。
观点四:文化产品将走向极度去中心化的私人定制。担忧这会导致人类失去共同语言。
- 合理之处:这是一个极其深刻的社会学洞见。AI根据个人XP(偏好)实时生成的“信息茧房”和“娱乐茧房”,在技术上完全可行。作者担忧的“失去共同语言”切中了文化的核心——人类之所以需要看同样的电影、玩同样的游戏,很大程度上是为了社交和共识。如果每个人看的故事都不一样,文化共鸣就会解体。
- 不合理/商榷之处:低估了人类固有的社会属性。人类有很强的“从众心理”和“社交需求”。即使AI能给我生成最完美的专属电影,我依然会去电影院看《复仇者联盟》,因为我需要和同事、朋友有饭后谈资。私人定制和大众流行文化大概率会共存,而非完全替代。
观点五:大模型无法做交互设计或玩法设计,因为它没有交互数据,且缺乏人类玩游戏时的“情感反馈”来进行迭代。
- 合理之处:这是任何一个有实战经验的游戏开发者都能产生共鸣的痛点。大语言模型本质上是“文本接龙”,它不懂“手感”、“打击感”或“节奏感”。游戏好不好玩是一种极其主观的情绪体验(多巴胺分泌),目前单纯依靠文本或视觉训练的AI,确实无法替代人类进行“试玩体验和手感调优”。
- 不合理/商榷之处:局限在了当前LLM(大语言模型)的范畴。未来的强化学习(RL)模型多智能体和多模态模型,正在通过强化学习直接在游戏引擎中训练(比如DeepMind玩星际争霸)。虽然AI没有“情感”,但可以通过设定留存率、通关耗时、操作频次等“数据指标”来反向逼近“好玩”这一目标。
观点六:Agent的本质差异在于“它能给项目找需求,不需要人类想需求了”。
- 合理之处:点出了Autonomous Agent(自主智能体)与传统被动型大模型的核心区别——主观能动性。当AI能主动监控代码库、发现漏洞并提交修复,或者主动分析市场数据并提出产品改进建议时,它的确在分担“提需求”的工作。
- 不合理/商榷之处:“不需要人类想需求”有些夸大其词。AI提出的需求必须在人类设定的宏观目标和价值观框架内。如果没有人类掌舵,AI很容易陷入“为了优化而优化”的死循环,或者提出完全不符合商业逻辑的伪需求。
观点七:团队协作的痛点在于客观知识的流转。如果有掌握全量信息的“项目Agent”就能解决,但如果还需要人类手写文档喂给它,那就是死结。
- 合理之处:非常精准的职场观察。企业知识库(文档/Wiki)总是过时的,因为写文档反人性。作者敏锐地指出:如果知识库Agent依然需要人去录入数据,那它注定失败,因为“巧妇难为无米之炊”。
- 不合理/商榷之处:对目前的工程解决方案稍显悲观。现在的企业级AI应用(如接入了代码仓库、Slack/钉钉聊天记录、Jira任务面板的AI)已经可以做到**“无感收集”**。AI可以在不增加人类额外工作量的前提下,通过旁路监听团队日常沟通和代码提交日志,自动构建和更新项目知识图谱。这个死结正在被解开。
观点八:主观上不喜欢向量空间相似性和Token预测这种“混沌”的AI原理,但承认“成王败寇,效果好就是王道”。
- 合理之处:反映了大量传统程序员/逻辑思维者的真实心声。传统的计算机科学建立在严谨的逻辑、确定性的因果关系之上(1+1一定等于2)。而如今的大模型却是一个巨大的概率黑盒,充满玄学,这种认知上的撕裂感是真实的。承认“成王败寇”也展现了作者对现实的客观接纳。
- 不合理/商榷之处:这属于个人技术审美的范畴,并无绝对对错。但从科学史的角度来看,复杂世界(如自然语言、人类意识)往往就是非线性和混沌的。用确定性的代码去模拟复杂世界本就困难,概率论和统计学或许才是通向强人工智能更合理的底层哲学。
总结:
我删掉了嘻嘻。