GGJ 2023 反思思(叠词词恶心心)

(太久不更,随便写一篇灌水)

如果还没玩,可以先尝试一下,否则看下文可能不知所云。是一款选择不同语料库投喂调教AI,让AI能够做出符合要求回答的游戏。

https://drive.google.com/file/d/1feHxFso43_sCC09gD3D9IFEh04wkx-kT/view?usp=sharing

整体概括一下:

试图尝试【重概念,而非玩法】的设计思路。在概念催生出的玩法下,根据经验做了一套自认为可玩的机制,并作出了【概念又有趣,玩法也合理】的判断。但 GGJ 结束的时候发现并不可玩。此时又误判其原因是游戏内容没做完,也不够好,于是改了一波内容。改完发现还是不太可玩,这才意识到机制本身的问题。

1,基本玩法设计——【更注重概念,而非玩法】

这次的设计思路完全是从 “喂AI各种不同的语料” 这件事本身出发的。在最近浩浩荡荡的 AI 热潮中,各种通过构造语境让 ChatGPT 与 New Bing 说些有趣内容的梗图层出不穷。还有一些其他国产AI 胡言乱语,怒怼用户,被大家吐槽 ”这是百度贴吧训练出来的吗?“ 的梗图。感受到这些乐趣的我,自然而然也感到 “训练AI” 会是一件有趣的事。队友们同样也对这个概念很感兴趣,于是我们决定从这个概念出发。

之前曾有另一次令我印象深刻的Gamejam经历:前一晚上大家还在兴致勃勃地讨论着惊天魔盗团,但当第二天,大家从这个概念出发继续讨论,不断延展,最终决定了做一个和魔盗团完全无关的节奏游戏时,我颇为震撼。当时大家为了能做出一个机制可控且可玩的游戏,而最终埋葬了前一晚大家喜爱的概念,这样的讨论过程,给我留下了深刻的印象。

最简单的【概念出发】的做游戏方法是,把概念原封不动地做到游戏,再为了玩法做一些小幅修改。这比较有助于让玩家感觉【我在喂AI,而不是一个一眼望到底的数值模拟游戏】(说的就是你,王权)。我YY了一下现实生活中的训练AI,似乎训练 AI 就是找到各种各样的语料库,然后把它丢给大数据模型开喂,而 AI 也自然会根据你喂的语料库做出反应,说话方式和说话内容就有所改变。

顺着这个,基本玩法可以被定下来了,但此处其实产生了一个问题——这个基本玩法,真的能感受到最初概念的有趣之处吗?或者说,当最初我们认为“喂AI”这个概念有趣的时候,我们究竟因何感到有趣呢?

而我如果还用上面举例的梗图来看,现在能想到的点有两个:

一个是 AI 说怪话。比如下图,比如让ChatGPT 扮演发情猫娘。

另一个则是 AI 根据你投喂的语料库,做出不同的反应。当你喂它草榴社区,它会说一些色情内容。当你喂它孙笑川吧,它会变成抽象老哥。

显然,这两种乐趣并不完全相同。我们采用的玩法,看上去对第二条乐趣有所帮助。但由于没有对【概念为什么有趣】这件事做具体思考,在后续的机制设计里,做了一套不适合看AI怪话的机制。如果执着于要看AI怪话,我们应该找一个会尽少出现重复对话,且可能没有所谓【正确答案】的一套机制。

随后我们还做了一些概念的扩展,例如要呈现 AI 的【恶】都是人类灌输和导致的,这些想法也对后面的具体规则设计产生了一定影响。

2,机制设计——为什么认为它玩起来会好玩?

上面提到的【找到各种各样的语料库,然后把它丢给大数据模型开喂,而 AI 也自然会根据你喂的语料库做出反应,说话方式和说话内容就有所改变】只是一个基本玩法。或者说,是玩家行为。要想让其真的是游戏,还需要机制和规则。(游戏目标,游戏胜负之类)

而其实定下基本玩法的时候,我潜意识里直接为这个玩法想好了一套机制(或许其实都是一起想好的,哪有什么顺序,人的脑子都是一坨浆糊)并且我直觉做出了判断——这个机制很好玩!可以带来游戏式的基本乐趣。

不幸的是,这些判断是基于直觉下意识执行的。实际上,我只是想到了一个具体的规则设计。我并没能准确地理性判断,为什么我认为这套机制好玩,也无法判断出,这套机制重点在哪。它就突然在我脑海里出现,于是我就这样推进下去。在之前很多时候独自一人开发的时候,这样也没什么问题。但是当团队协作的时候,这会带来巨大的额外麻烦。由于你自己也不知道你的直觉是怎么想的,你很难向队友传递这种感觉,队友在做东西的时候,也很难把握到什么是重点。

然而等做完开始全盘思考的时候——“这不就是文字解谜嘛”。

我认为这个玩法可行的原因是,其提供了一个基本挑战——玩家需要从各种文本中,判断出 AI 当前的状态,判断出这个语料会对 AI 有什么样的影响。只要你玩的足够好,从文字中感受到的状态足够准,对各个语料库的语言风格和内容足够了解,你就可以过关。而就算你一开始不够熟悉,在不断游玩的过程中,你也会对语料库更加了解,从而玩的更好。多么合理!

3,内容设计

在Gamejam结束的时候,虽然游玩体验很糟,但基于之前的直觉判断,我相信这是内容的问题——只要我把问题和语料库都做好,一切问题都会好起来的。而客观来说,按我这个机制的做法,内容确实太难做了——所有的游戏性元素,叙事元素,全部需要借文字来表达。而大多数玩家对文字微妙的差异显然是不明显的。

最初的时候,我认为问题描述可以尽量模糊,让玩家猜怎样的AI会给出符合老板要求的回答。然而在一次次试玩迭代的过程中,我们最终不得不把每关的训练目标,用非常清晰的语言写了出来——”要一个攻击性强的回答“,”知识面太窄了“,”要有创意“。

错误回答同样如此,当AI给出一个错误回答的时候,我们不能尽情地按最初设想的概念那样,写一些【有趣的怪话】作为错误回答。我们必须让错误回答中携带足够的信息,才能足以让玩家模糊地get到如何修正。

4,机制本身的问题在哪

上面提到了一些让这个机制不够好的问题——例如把过多的功能放到了文本当中去,让我们不能尽情写怪话。例如机制不鼓励你去乱尝试,在好好玩的玩家手里很多错误的怪话无法被触发。(比如写周报的问题,我特意写了一个喂色情内容会触发的特殊回答,但试玩过程中没有人真的触发出来)

但这些问题只是让这个游戏变得【没那么好】。但根据大家的反馈,这个游戏的玩法机制有更严重的问题,直接导致了【没法玩】。也是我从头到尾忽视的一点——【文字解谜每次错误的时候,也要给玩家一些进展】。最常见的做法之一是,做只有 A B C D 几个选项的文字解谜。就算玩家选错了,他至少排除了 1/4 的错误答案,玩家也不会过于懊恼。

举一个更具体的例子,在 428 里,前期的大部分“谜题”都是非此即彼,而且每次出现Bad Ending的时候,系统都会给一个非常强的提示,告诉玩家去哪里找对应的解锁选项。此时游戏流程非常顺畅,毕竟就算错了,直接换一个往往就行。但是在结局处,需要连续做对多个选项才能过关的时候,大部分玩家都会一头雾水,卡关许久,一遍又一遍观摩着炸弹的爆炸,甚至直接查攻略——这个谜题里,玩家做出的选择,和这个选择产生的效果,两者的因果关系实在是太模糊了,而选择分支的数量又在组合数学的威力下无限暴增。

放到我们这次的游戏里,玩家做出一个错误选择,收获一个错误答案的时候,能知道的信息太少了。而选择的选项,与结果之前的关系,也太模糊了。试想,我们换一个机制——玩家需要选择若干语料库和百分比,拼出一个拼盘,AI 接受这个拼盘作为自己全部的语料库,给出一个回答。那至少玩家可以对比两次拼盘的不同,和结果的不同,从而得知不同语料库会带来什么不同影响。而不是像现在这样,做了一个选项,收获一个错误答案,除了错误答案毫无推进。这让整个游戏的基本游玩体验,崩塌了。

5,不太成功的团队合作

上面或多或少也提到了,或许由于过去几年里自己一个人做游戏比较多,很多时候想法和判断都是凭直觉和下意识产生的,也不会深究其中原因,就直接往下推进再说。但这种做法团队协作起来还是略显困难。另一方面,也不利于自己理清思路。

不过反过头来说,在Gamejam的过程中,迅速理清自己的思路,当然本身也是很困难(不可能)的。只不过在Gamejam结束开始迭代的一段时间里,完全没得思考,继续依靠直觉去判断【是内容的问题,而不是机制的问题】这件事还是太不合理了。有的时候并不是想清楚这件事很困难,而是真的意识到,自己该想了,反倒比较困难吧2333。只能说下次注意了。

以上,总算是水了一篇 _(:з」∠)_

5 comments to “GGJ 2023 反思思(叠词词恶心心)”

You can leave a reply or Trackback this post.

Write a Reply or Comment

Your email address will not be published.

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据