关于 kaito yaps 的六层思考发散:你已被巨网包围!
kaito这个项目见到倒是比较早,最早是零散几个博主推,当时以为只是个做社媒数据分析的工具。
后来越来越多KOL推,一直到这周,timeline基本被kaito占领。特别是很多平时发的内容都很优质的博主;每多一个,我对它的好奇就会多一分。因为我相信这些博主的眼光不会错。
绝对不会那么简单!我看到的只是皮毛。于是排上研究计划。
kaito到底在做什么事?以及可能要做什么事?接下来基于我对这个项目的了解过程,说说我的理解。
第1层:表面上的kaito,KOL品牌价值排行榜?
从已对用户曝光的部分( yaps )来看,这是一个以某种方式量化twitter账户影响力的产品。这种影响力被用“Yapper Mindshare”表示。mindshare可以理解为“心智份额”,这其实用于表示一个品牌在受众群体中的地位和相对重要性,高心智份额能够带来更多购买行为。
从这里可以看到项目方针对社交账户影响力的定义——品牌价值/商誉。我们可以对比已经是尸体的某朋友科技,后者其实是把影响力定义为一种金融资本。品牌价值到金融资本的转换,是单向,并且可被控制的。FT没有这么一个阀,所以兜不住。
在首页可以很清楚地看到twitter账号获取yaps积分的排名数据、热力图、网络图等。
顶部菜单栏可以选择:
1、针对某个话题的yaps,或者某个分类话题(比如针对某个项目)。 2、项目的pre-TGE声量。 3、VC影响力。
暂时没有看到yaps积分的计算规则,事实上,不透露规则也是kaito做的比较好的地方,这个后面说。
这个就是第一层的kaito,看起来似乎只是个平平无奇的社交挖矿项目,而社交挖矿已经是上上轮就已经被玩过的模式了。很多难题解决不了,随手列一列:难以自动化定义内容价值;用户行为激励扭曲;垃圾内容泛滥、刷单划水等;社区氛围恶化,劣币驱逐良币……
第2层:AI辅助分析,让社交挖矿模式可行了起来?
在yaps产品页下拉,可以看到还有个具体的展示面板,AI基于用户内容做情绪分析,判断这个账号发的内容是硬核or随意、抄袭or原创、喜欢发垃圾话还是有价值内容。
目前只有这三个,但这玩意未来可以慢慢加上去很多。就好比隔断时间就会流行的“twitter人格分析”小玩具,MBTI人格测试分分钟给你玩上。btw确实可以加上MBTI,挺好玩的……
这其实反映了一个很重要的点,是上个周期所不具备的:AI在数据分析和量化工作中所能发挥的作用。或者说,NLP(自然语言处理)早已有之,但一直没有被拿来用。有句话怎么说来着?时候未到,杀鸡焉用牛刀?
跳回前面所说的,社交挖矿模式的几个无解问题,这几个其实是一环套一环,最根本就在于,内容价值无法量化。那么借助AI分析一个推文所含信息的价值、博主情绪等,都成为了可能。至于价值本身怎么量化,这个又串到后面PageRank的话题了,先放一下。
一旦内容价值可被相对准确地量化,垃圾内容泛滥的问题就可以缓解;刷单、划水、优质博主被排挤等问题,就可以缓解;用户行为激励扭曲的问题,就可以缓解。反过来,行为激励被导向到:发送优质内容。
当前的yaps积分,本质上还是社交挖矿,这个不用争。但我这么一说,是不是觉得好像有点不一样?
别着急。我的理解是,yaps仅仅是kaito打市场的一步棋。KOL是声量最高、最容易带动裂变的群体,就像我会在第3层说的,KOL只是众多分类角度的其一。
第3层:数据分析工具
前面说到,yaps目前可以能够看到项目的pre-TGE声量、VC影响力。这些都是基于对应的项目/VC在twitter上的官方账号数据得来。
理论上,只要底层数据在埋点/清洗/归类等过程足够精细,类似的菜单功能是可以被无限拓展的,因为只是针对不同特征做分类聚合。比如说哪天可以出个twitter政客影响力排行,出个xx话题分析,出个最受欢迎的av老师,等等。从社媒舆情的角度,kaito比部分单纯计算关键词频率、抓取KOL关键词重合度等简单算法的数据工具效果一定会更好,因为kaito的权重来源于长期的神经网络优化。
话题回到数据分析,twitter这么一个靠死贵死贵的API拿数据的,可以做到这样;链上数据的采集,似乎更容易?包括其他一些常见的平台。链上数据就算不自己做,和 Arkham 之类的合作,推出一些 alpha小工具、监控报警、投研助理 之类的副产品不成问题。
举一个例子吧,链上数据产品绝对做不来的。
运营节奏分析。
正常来说怎么做呢?找到运营主阵地,通常是twitter、discord,去扒每一条公告、推文,内容、互动数据、评论倾向、AMA、dc聊天内容、PR文案等;有发币的,还要结合k线图,有NFT的,去看资产交易记录;去看项目方大的运营周期里的活动填充,去看社区情绪变化和应对方式等。一个项目方会不会运营,这对于做二级投资其实很重要,但目前就是得耗费很多人力精力。
但如果用AI基于现有数据来辅助分析,就只需要一套成熟的算法规则了。同样的逻辑可以化用到:
一个热点事件的发展过程。一个meme币的发展过程。按头CABAL?
美国大选的全过程回顾。
……
这样的产品够不够有竞争力呢?我相信一定有,核心就是yaps背后那套算法的积累,核心就是我能做你不能做。边际成本够低情况下,每个副产品只要精准定位客群就好。
第4层:infoFi?金融化的信息门户
还记得我刚入圈的时候写过一篇文章 我设计了个区块链上的“烂番茄+wiki”项目:如何更好地引导社区治理? 设想的是一个类似于豆瓣/烂番茄的评分网站,社区去给项目打分,中间有各种机制来维持打分的公平性和准确度。
项目打分不稀奇,随便一个门户网站都能做,可是有意义吗?先不说当前的用户习惯不在这,就算用户习惯看打分,随便就能刷上去的分数有什么意义?
参考已有的一些长线运营打分网站,豆瓣/烂番茄/ProductHunt等,总结来说无外乎几点:
1、通过机器学习剔除可能存在的刷分行为; 2、通过注册用户的活跃度/影响力做不同权重; 3、邀请专业人士进行打分,相当于DPOS了其实;
很多门户网站的分数无意义的原因在于,他们的主业务基于信息归类,不可能无法花费大成本去做机器学习,去计算用户权重。并且用户习惯目前也不在这,成本收益对比很清晰。
但我在想,对很多新人来说,他们看不懂我们说的云里雾里的东西(就好比我这篇文章他们一个屁字都不会看)他们需要一个简单直白的东西告诉他们:这个项目好不好?这个KOL割不割?T、M、D、别、废、话、YES、OR、NO?
一个底层行为模式就是:电影、美食、AI模型,所以直观上难以评价的东西,一定会出现一个评分系统,帮助人们更快更直观获取这个东西的价值程度。这最终会形成用户习惯。好比我看影视作品一定会先开豆瓣,我朋友吃饭一定要先开大众点评一样。
说到这里,你似乎能够联想到什么东西。没错,搜索引擎,这个后面说。
先说说我为什么认为一个标准可用的信息门户很重要。
举几个例子吧。
1、之前老是看到有吐槽400U天团割韭菜,但有什么用呢?不是韭菜没有记忆,而是镰刀太多记不过来。就算你记得这个人了,人家改头换面或者卖号了,完了推倒重来了。用户天生不擅长记这些东西的,就好比前几天 @0x_Todd 老师说弄混了两位马男一样,没忍住笑,因为大部分人都一样认不清,我也是。
2、现在大多数门户网站会附一个评分,可往往就是简单取个平均数,打分账号根本不知道谁是谁。马斯克给你项目打5分和你自己打能一样吗我就问?
3、请思考一个问题:你认为胡润、福布斯为什么每年要花费大量精力制作排行榜?
全球最大的评级机构之一,穆迪2023全年净利润24亿美元。对于项目方来说,做信息门户服务有很多好处:提升自己的行业地位和话语权;向B端收取服务费;向C端收取订阅费;黑心一点的,收广告费……
光是第一个,话语权。即便我很不喜欢讨论权力这个词,但不可否认,有的时候,权力变现远超任何商业模式,无论这种权力是如何获得的。
第5层:搜索引擎?
前面提到PageRank,这里解释下。
PageRank是谷歌搜索引擎的核心算法之一,PageRank排名简单来说就是衡量一个网页的重要性,如果一个网页被很多其他网页所链接,那么他的排名就更高。某种程度上这个排名就是网络结构中,每个节点(网页)的权重。
假设对于一个网络结构,最初每一个网页的权重都是1;假设有一位随机冲浪者,每次经过一个节点,都会基于该网页上的链接跳转到其他网页,或者极低概率随机跳转到一个无关的新网页(设定一个阻尼系数,然后我们忽略这种情况)。假设这位冲浪者持续在各类网页之间来回跳转,拉长时间线,他停留在每个网页的次数其实就可以看作是节点的权重。
当然,实际的算法肯定没这么简单。再多了我也不懂。咱们就只抽象出这么一个底层模型。
现在就可以回到前面所说的,内容价值的问题了。内容由于是一个带有主观色彩的东西,我没法说人家发了个研报他就是高质量,你整天在那边shitpost就是低质量,不是这样的。或者说,部分是这样的,但一定会有一部分权重,它来源于“PageRank”。
请回到互联网行业常说的、我们炒meme常说的一个词——注意力价值。
形象点说,你这个节点每多被查看一次,就积累一点注意力价值;那么PageRank(在kaito里可能是yaps抽象后的一个内部参数)就是你能捕获的注意力价值相对值。
那么对标到谷歌,如果kaito提供web3信息的搜索服务,你输入一个词,最先搜到的是谁呢?
KOL:妈蛋,本来以为是来嫖你的,绕到最后我反被嫖了?
400U天团正义执行者……
开个玩笑。我们挪开KOL,放到付费能力更强的VC、项目方、CABAL集团、政治利益集团身上,假设kaito能进化到谷歌的地位,这些B端要获客,付钱要付给谁?付多少?嫌多了?那咱竞价排名吧?
……
第6层:机制设计的春天?
老实说,这层和kaito没啥关系,是我从kaito这个项目的研究中得到的一些灵感。如果能让你开心,第0层或者地下室也没问题的。
所有的机制设计,无论事前的演算有多么精巧,一旦实际投入运行,一定会面临来自不同利益群体的的挑战。
俗话说的好,“上有政策,下有对策”,这说的是博弈策略的演进。
更严重的问题是,不同群体的利益可能存在一些根本性的冲突,这意味着其中总有己方会在社区质疑、引战。而作为论据之一,对于难以量化的“事实”的量化规则便是重灾区。针对于此的争论往往最后鸡同鸭讲,沦为无意义。
但是AI评分黑箱不会啊。
AI给你打80分,说你阳气不足,还需努力,你什么想法?
1、感受到冒犯,但冒犯者是AI,算了吧。这是天然的社区包容性。 2、AI为什么给别人打90分只给我打80?我是不是有什么问题?这是AI的技术黑箱,让其时刻站在舆论高点。 3、AI真的会持续自我迭代,你会发现AI说的怎么越来越准了?这是认知接受的温水煮青蛙。
所以,一个好的AI评分模型,能够解决:
1、万物皆可量化了。如果量化效果差,不是不适合量化,是数据还不够。一旦万物都可以转换成明确的数据,很多统计、算法就能跨越性地跑了。 2、AI评分是个黑箱,这意味着不存在完全信息,博弈参与者的最优对策,确定性进一步降低了。 3、最大共识公约数。之前相互瞧不上,都觉得自己的更好;现在都得了吧,AI为准要不就?以和为贵嘛…… 4、随机性乐趣。这个用在炼油会非常合适。
当然,AI的模糊性是双刃剑,使其很容易被拿来作为阴谋的借口。这些相信随着技术发展会慢慢被解决。
差不多就想到这里,最后提一提我对项目的风险认识吧。
风险认识
从yaps这个先行产品来看,kaito目前的优势其实基于twitter,crypto大多数社媒活动是发生在twitter上的,如果twitter API成本变化、甚至直接改了提供数据,可能会带来严重影响。至于farcaster,第一生态暂时没那么成熟,裂变转不起来,第二由于成本低,竞品也能轻易塞进来;短期来说,小工具拥有竞争力。
更核心的问题就是权重算法,如果最终效果不够令人满意,比如大多数人都觉得A比B高但其实A比B低很多,这种其实是有问题的。这不是直觉与否,是算法逻辑有问题或者说团队作恶了。包括AI的中立性是需要被证明的。
第三,是能否得到最大采用。yaps可以很贵,吃精英用户,没问题。但后续怎么让更多人认可和采用,其实是做平台最难的事情。B端,排的高的自然高兴,顺水人情背个书;排名偏低的呢,会不会去搞事情?C端,KOL被拉拢了,但同样成为了“负债”,榜上只要有一个人出事,信任度就会大跌,这是单点风险* N。从yaps推出到最大采用,路还是难走的。
利益声明
我没有收kaito一分钱,不认识kaito任何人,甚至由于我个人反社会工程的原则,当初连twitter后不填钱包,错过了空投的大毛。本文所有言论,是我基于这个项目的一些衍生思考,也不代表项目就会这么做。写下此文的目的在文首已经阐明:kaito似乎没有我最初以为的那么简单,我想研究研究。
欢迎关注twitter交流: