“复活”著名音乐人女儿后,小冰公司CEO开始担忧
在狂奔了一年后,中国AGI突然出现了一种奇怪的二元性,以朱啸虎为典型的商业化落地派,与以月之暗面创始人杨植麟为代表的技术信仰派,成为AGI创业的一体两面。
但AI的快速迭代,所带来的影响远不止如此。不仅关乎钱与信仰,也关乎伦理。
不久前,台湾著名音乐人包小柏,用AI技术“重现”了自己因病逝世的22岁女儿包容,也激起了大众对“AI复活”产业链的好奇。
简单的操作和低成本,就能“定制”和“还原”逝去亲人的音容笑貌,甚至能够让其跟你互动、对话,这样的“诱惑”越来越多地出现在广告宣传语上。
“AI包容”项目技术合作方正是小冰公司,小冰公司CEO李笛坦言已在担忧,这种“技术创新”的滥用,会造成不可逆的危害。
和2023年AI孙燕姿出现时,他的态度一样,再次强调了不假思索的“开源”所带来的潜在危害,并呼吁全行业思考这样一个问题:“一切以技术创新为名进行的侵权行为,是不是有点滥用‘技术创新’这个词了?”
3月16日,乔任梁父亲因近日发布的“AI复活版乔任梁”发声,他直言不能接受,感到不舒适,希望对方尽快下架,“他们未征求我们同意,是我侄女刷到视频发给我的,这是在揭伤疤。”
以下是市界和小冰公司CEO李笛的对话:
01、“我们担心可能打开了潘多拉魔盒”
市界:作为技术提供者,你怎么看待外界对包小柏用AI复活女儿这件事的讨论,技术上的难点是什么?
李笛:我们一直比较担心的事情确实发生了。之前出于尊重个人隐私的考虑,我们不会主动出来(宣传)这个技术。
不像有的公司,是自发想“复生”一个某某人物的数字形象,然后去征求家属同意。我们不会主动做。
其实,“复生”一个人很容易,但做好,做“像”很难。现在一个技术特点是,准入门槛在大幅度降低了。一开始定制,需要2000句话,200句话,现在可能只需要20句话,甚至更少。
▲(包小柏与女儿包容)
包容(注:包小柏女儿)这个案例,陆陆续续做了一年。之前给到的数据量很小,只给到三句话,还是英文的。就用三句,简单介绍学校图书馆的语音,要还原出一个有点台湾口音的ABC,还要让“她”不仅可以对话,还能唱歌。
从技术上,并不是那么难做。只要在预训练的阶段,把这个东西训练的足够好,用一个非常稀少的样本量,就可以把它调用出来。从这个角度说,“数字包容”没有那么特别。
▲(经包小柏授权对话截图)
市界:包小柏在其中的参与程度如何?
李笛:他参与程度非常深。事实上,我们也都特别推荐这种参与方式。亲人在这个过程里得到了很大的慰藉。
当包小柏能很高兴地表达出他的女儿是他亲手“复现”,这个过程本身,就是这件事情的意义之一。如果这个人是在世的,要把自己“创造”出来,这个(调试)过程也能够让他临终最后这一段路变得相对平静很多。
我们不停通过一个一个Case的完善和改进,来使整个技术越来越趋向于标准化和成熟。
这些AI克隆人的创造者,我们把他们视为一半的工程师或者说一半的产品经理。正是有(包小柏)这些反馈和不断迭代,帮助不是光迭代这一两个“包容”的版本,实际上是在迭代整个小冰技术框架。
市界:你们开发了端口给包小柏去做调试,那这件事是否普通人也能做到,理论上没有门槛?
李笛:我们不能要求这种事情有门槛。跟GPT一样,这种技术不能只掌握在少数人手中。恰恰相反,就是一定要把它的门槛降下来。
实际上,今天有很多人想利用这个信息差,让我帮你做,来攫取不正当利益,我们是倾向于让它变的更透明的。
市界:如果我们把所谓的“复活”亲人当做一个可定制化的个人产品,它是否能够得到普及?
李笛:要做这件事的伦理门槛很高。但其实跟其他类型的克隆人(比如之前的陪聊“半藏森林”)本质技术上没有什么太大区别。现在X Eva App上,50万粉丝以上的大V网红已经3000多人了。一般的克隆人已经快100万个了。
但是它的难点,不在于技术和产品,也不在于定价。而在于我们必须要坚持一个非常高的伦理准则。有很多材料要补充。它不是以“便利性”为第一要求,而是以“伦理原则”为第一要求的事。
伦理上,最没有瑕疵的是本人,自己要求做。其次是直系亲属。亲属也可能出现滥用的问题,那我们要求,必须要满足三原则:要有社会监督,必须注明是AI,必须要事项公开。
我们2017年就申请这项专利了,2021年获批,这些年会有这样三类人来咨询:已故人的在世亲友、朋友和本人。
有一个自杀去世的著名歌手的朋友就来咨询过,但我们拒绝了,伦理要求上不符合。我们要求的条件:必须是亲属发起(需求),且亲属意见一致。
我们非常强调说,发起人必须得是亲人。因为来自亲人的确认(像不像)是最直观的,且很有可能造成伤害最小的。
一旦涉及到交互,“像不像”这件事情特别取决于交互对象。一般认为家人会掌握更多决定权。
市界:小冰对这个案例的总结是怎样的,未来能有更多“复活”案例出现吗?
李笛:现在来看,这件事引发的热度已超出我们的想象。
因为技术门槛降低,有很多小机构或者是小团队(开始入局),未来一年内,很可能会大量地去做这件事情,我们很担心会造成社会性危害和风险。
一是害怕向公众兜售焦虑。就像当年有个说法,要让人们去保存“脐带血”,以防万一日后孩子生病用得上,某种程度上是一种兜售焦虑。
实际上,技术越发展,反而不需要那么多数据。要让你提前保存数据的项目,可以说,都是骗局。
“复活”亲人的念头,往往是剧烈的、突然产生的,最可能发生在什么场所呢?临终关怀相关的场合、特定的纪念日,这就带来了一定不确定性——很可能就有人打殡仪馆主意,就像医院太平间门口卖花圈的多。
第二件事是侵权。在世的人都可能被侵权,何况往生的人?像最近很热的“点读机女孩”,还有去年的“AI孙燕姿”。
理论上来讲,“AI孙燕姿”就是对孙燕姿赤裸裸的侵权。无论从它的数据、品牌,还是可能产生的收益分配,孙燕姿整个过程都被排斥在外。这还是孙燕姿本人还在呢,都无力挽回。
所以需要避免类似的情况再发生。因为历史证明,发生过很多回了。生死问题,始终是人类所面对的最大问题。所以兜售的焦虑中,莫大于生死焦虑。这个是绝对不能这么做的。
情感代偿的价值对于生者是存在的,但并不一定非得以完全的技术复生来实现。AI技术能使这种代偿得到最大化实现,但不能在危害社会前提下。
我们担心的是,可能打开了一个潘多拉魔盒。会产生劣币驱逐良币的问题。一个机构,提供这个服务,把成本cover回来,这是合理的对吧,非营利机构不代表是公益机构。但是追求商业利润最大化的机构去做,是截然不同的。
现在就是这样,很容易一个事情就迅速变成了一种赚钱的方法。
02、“不要给地上扔AK47”
市界:AI技术的进步,必然会伴随一系列的问题,比如说我们会更加频繁地看到一些类似AI换脸等新型骗术的出现,怎么去做防范和避免?或者说,这是否是不可避免的?
李笛:是可以避免的。我们在几年前就已经呼吁了,但是我们的呼吁毫无声响。先把不加以深度、仔细考虑就把所有技术开放出来,提供API接口调用,甚至是基于开源或者提供这种工具的技术输入公司,全都先关掉。应该不允许随便地把技术开源出来。
举个之前的例子,全世界范围内绝大部分的黑客攻击都不是黑客干的,都是没有黑客技术的普通人。有一些是恶作剧,有一些就是为了利益,也有一些就是玩。
有的人把黑客技术,包装成傻瓜级的应用,不考虑对方是谁,就把这个东西放出来,也就十块二十块,迅速地,基于这个东西就会形成一个产业链。
AI换脸诈骗也是一样的。有人在没有很谨慎的情况下,就把AI换脸的技术开源放出来了。问题根源在于,最初从根上,当你放出这个技术的时候,完全有能力预判,它会被用来干这个。
市界:但站在今天这个时间点来看的话,开源这件事情是不是不可逆的?
李笛:很多开源是为了商业价值,是非常自私的,仅仅为了打击竞争对手或展现实力,而丝毫不考虑开源这个东西所产生的社会危害性。
因为人工智能技术相关法律,包括一系列的评判标准,还都不够呢,就把它放出来,这跟你为了打开当地的武器交易市场,把AK47扔在地上有什么区别呢?
人工智能技术的开源和软件的开源,完全不是一个概念。软件的开源是一种开发资源的开源。而人工智能的开源是能力的开源。
软件资源的开源可以节约时间和成本。但是能力的开源不一样。能力的开源存在着能力的边界。任何国家都不允许武器的图纸可以随便开源出来。
人类是经不起诱惑的。比方说有两类人,今天有一个开源大模型,这个大模型可以说服人们去买东西或者交流。另外有一波人是在缅北,用这个去打诈骗电话,显然这批人会倾注更大的热情,因为会有很大的价值利益回报。
所以当你开放出一种能力出来,而社会的法制、人们的评价没有达到一个标准的时候,那显然是作恶的人会更愿意去尝试。
已经无法回避这件事了。今年2月,香港有一起最大金额AI诈骗案,就用AI换脸CFO诈骗了一个跨国公司两亿元(港币)。这件事情有办法阻止吗?没办法了。
今天高兴的事情是,毕竟人工智能技术还是没有像大家认为的那么智能。
你用它写一篇论文,还是比较容易看出来它是满满的GPT味儿,也能用技术手段检测。但法律法规现在压力比较大,你只有利用非技术手段去规范这件事情。
因为说实话,识别AI论文这件事,要想检测出的技术的难度是高于用它来生成这个东西的难度。就是盾的难度是高于矛的。
另外就是,我觉得整个行业应该重新去思考一件事,就是一切都以技术创新为名义,是不是有点滥用技术创新了?
去年,AI孙燕姿火爆出来以后,孙燕姿发了一篇微博,表达自己的无可奈何,但我不阻止。为什么。因为如果阻止的话,一堆人会说你老土,不够拥抱“创新”。
市界:更多的一种无奈可能是在于,孙燕姿也无法阻止?
李笛:虽然孙燕姿无法阻止,但B站想阻止是很容易的吧?(笑)
大家如果不认为这是问题,或者大家在认为这有可能是问题的时候,会有一个声音出来说,这是技术创新。这(技术创新)就成了是一个放之四海而皆准的一个挡箭牌,是一个永远都很好用的说法。
所谓的这个不创新的人会被认为是保守的,那么他们就会保持沉默。
03、“中美不存在差距,但大家太习惯踩在别人的肩膀上成功”
市界:最近业内关于AGI的讨论,出现了显著的分歧,比如朱啸虎觉得中美差距还是非常大,他的AGI信仰聚焦在马上能变现的。
李笛:坦率讲,我不认为中美有差距。很多人讲(差距),是有一级市场二级市场的利益在那儿。从我的角度看,中国算力并不短缺,但分配不均。中国有两百多个大模型,多少算力够?撒沙子这么撒都不可能。问题是,为什么这么多人要做大模型?美国才有几个基础大模型?
我们去年3月份就在这么说,没有人认同。大家都在卷参数,只要规模足够大就可以吞噬一切了。
问题是,为什么这么说?因为内行在努力尝试,把一个东西解构出去,让外行可以理解。很多问题根源就是这个,科技不自信。
都知道,不该卷参数、卷指标,卷榜单。但问题是,你去跟投资人讲,听不懂,只会问你参数规模多大,榜单上排第几?曾经有一段时间,行业投资人只听得懂参数规模,你是100B,它是130B,那他比你牛。你是72B,那你不如他。
国外有一个什么样的AI应用,国内公司恨不得开发出20个AI应用。(资源)就是浪费在这儿。
为什么跟着抄?因为真有原生技术创新,别人听不懂。很容易解释,好,我是中国的Open AI,懂了。但我要不对标(美国)呢,说我要做什么,听不懂。
市界:这是因为风投行业投资人跟行业的技术理解差距太大?
李笛:投资人,行业都是一样的。包括普通人都是一样的,如果有一个东西,西方国家有可以对标的,所以我也有,这件事就很好理解。
如果有一个东西,美国还没有,我中国有,好像这东西就不好解释。
市界:这种观念有错吗?
李笛:我们这一代科技领域,投资领域,成长于互联网时代,2000年前后,包括Web2.0,人们会有一个肌肉记忆。
你看,搜索引擎起家,百度,那我是中国Google,很好解释。中国的价值在于我有一个非常广阔的市场,只要我做了谷歌做的事情,比它晚两年,就能把它从中国市场挤掉,吃掉这个市场,就成功。
在那个时代大浪淘沙过程中,这种思维惯性是可以成功。但我不是很认同跟着美国做才是唯一路径。
市界:“晚两年”这个技术差距,在当下不存在吗?像去年“百模大战”,出了那么多大模型,但客观来说还是赶不上GPT?
李笛:(笑)就是这个,你知道为什么赶不上,就是因为在卷参数,迅速上马去冲。
你想做一个大模型,需要的几个条件,中国有没有?算力,有,数据,有。技术算法,都是透明公开的,一直在GPT3.5前,都是透明的。我们的科研人才,也完全充分。
Exactly,就在大模型浪潮出现之前,有很多在美国的华人工程师回国创业,参与到像达摩院之类的大厂AI Lab中。那时候微软很痛苦,都留不住中国工程师往国内涌。
市界:那为什么这波浪潮没有率先发生在中国?
李笛:就是没有沉稳的心。
原来有这样一个故事,说在意大利有一个小镇。小镇去了一个犹太人,一看这个地方没有皮鞋店,他就开了一个皮鞋店。后来呢,有其他犹太人也过去了,有的人往前面产业链上,做这个皮子,有的人开了跟皮鞋搭配的服装。这个小镇就蓬勃起来了。还有另外一个小镇,有一个中国人过去,开了一个皮鞋店。其他中国人看他卖皮鞋卖得好,每个中国人都开了一个皮鞋店。
我们现在的产业情况就是,不考虑自身的特长,不考虑产业链,更多考虑的是,我在这件事上如何能够更快地,站在别人的肩膀上成功。
什么叫站在别人肩膀上成功,就是你看我解释起来容易,我就容易成功。
Open AI 有七年的时间,解释起来都很难,很难解释出这个方向是不是正确的。那如果在中国,可能守不住这个阵地,早就换方向了。
很长一段时间,Open AI 在干苦活,下笨功夫的。如果不是因为后来有好的效果,那会是被嘲笑的。
市界:Open AI 背后也是有微软来做资金支持,能够支持长期的研究投入,国内的投资是不是更倾向于快速看到回报?
李笛:这其实是一个比较有意思的问题,这可能跟我们的一级市场,二级市场也有关。我们对于翻倍式增长的要求太高了。我们有时候对于指标的优化太极致了。我个人觉得,这是应试教育所带来的一种思维定势。
总有一个排行榜,年级排名。你知道,清华算是有一大波人是应试教育的佼佼者。我有一些同学就是毕业后,还是觉得自己是考试是最强的,就去考各种资格证,考了20多个资格证。他不是为了要这个证干嘛,就是因为你给定一个东西,要得多少分,或者排名到哪,这个他容易做,知道怎么去优化这个指标。
市界:是不是大家现在想要“确定性”的心态会更强烈?或者说,容错率在变低?
李笛:对,所以我们的观点就是,我们就坚持做自己就行了,就跟去年似的。那时也有人问你们模型参数是多少?那我们模型参数就不要那么大。当时投资人就说我们,你们凭什么落后了?那你说就说吧。
但这是有代价的,就是在国内,这种代价很大。你要是在硅谷,这种是被认可的。你要在国内,那就是不合群。
市界:我们之前也有AI Lab这样的技术创新储备探索,但这几年陆续都没落了,原因会是什么?
李笛:AI Lab看起来不那么成功的原因有很多,我个人觉得最主要的原因之一,就是他们在优化一个核心指标。各大AI Lab,很希望通过对AI的投入来建立自己的技术领先,但如何去“描述”这个技术领先呢?靠论文。
所以迅速变成了一种怪象,(AI Lab)成了论文生产工厂。很长一段时间,咱们国家的人工智能论文数,哎,世界第一。
我们特别害怕,你定好一个指标,就往这个指标上极致卷,中国人真的很擅长这个。
当然也会有一些好效果。比如短视频平台,那我们就极致地去优化各项指标,让你去沉迷。
市界:但很多人觉得,这些平台在商业上非常成功。
李笛:问题在于我们不能只有一种生活方式,而这种方式攫取了人们绝大部分的时间。
中国有很多人,白天送外卖,晚上很累躺在床上拿手机刷短视频。过了三年以后,他还是只能送外卖。为什么,因为他没有提高职业技能的机会。这样的平台把这些人的时间吞噬了。某种程度上,相当于是从这些人的人生里把时间拿走了,平台换来了广告。普通人呢?
你要说这是不是一个商业上的成功,是。但是它是不是道德的,它不是。这是一个business,但不是好的business。
我记得我小时候,你问这个小朋友,长大了,想做什么?答案还是挺多元的。现在没什么多元的。只以财富作为衡量标准,那就会只朝着这个方向(发展)。
市界:现在大家对AI浪潮的担忧集中在,不一定会让我的生活先变得更好,可能会先抢夺走我的工作?
李笛:因为这件事情有利益关系。我能卖啊。对于一个未知的东西,什么比恐惧更有推动力呢?
就是小时候我们常听到的那句话,千万不能输在起跑线上。还有妈妈会说的,等你觉得冷的时候已经来不及了。这个很痛苦,让你永远都会有一种恐惧。
市界:这是不是一种匮乏感,大家是在资源较少,差距较大的一个环境中,天然会有的恐惧?
李笛:那恐惧就成了源动力,而不是热爱。
我见过很多人是这样。一个外地小孩,从外地考来北京,目的是到北京上学,所以学了一个不喜欢的专业。到北京上学后,学这个专业的目的是拿到北京的户口,所以进了一个不喜欢的单位。拿到户口以后,目的是买房。所以一直在做不喜欢的职业,永远在做的事情,不是他喜欢的事情,永远都因为另外一个目的而做当下这件事情。
那这对于创新来讲,是很可笑的。我们有多少这个所谓的创业者,是为了财富自由,而不是为了创业本身?
有很多人说我要做大模型,背后的真正原因是什么?我们见到一大票人,是因为担心像当年错过iPhone,错过移动互联网一样,担忧错过了。
还有一大票人,是因为现在说,我做大模型,能融到钱。就像那个来北京的小孩,那他总有“另一个”目的,而做这件事。
那当我们做一个逝者复刻的时候,我们意识到,之所以要做这件事情,是因为这件事对于相关的这些人有特定的,不可替代的安慰和抚慰作用。而不是它是一个好的生意,不是要以盈利指标为驱动力。
你看包容这个case,我们就会让AI仍然能够延续她作为一个歌手的梦想。但如果你是为了挣快钱,完全没必要去做这个事。
市界:但是延续歌手梦想这个是父亲的梦想吧?
李笛:是因为人去世以后就已经不存在了。
市界:你个人会是“数字永生”派吗?
李笛:我的想法是,人逝如灯灭。你人不在了,别人怎么利用你都跟你没关系了。我不想留下点什么,我没有想留下点什么的想法。