摘要:先说下,现在我们笑话“人工智能”为什么这么蠢的所有这些点,只要能找出来,也就是未来其快速进化的地方。
先说下,现在我们笑话“人工智能”为什么这么蠢的所有这些点,只要能找出来,也就是未来其快速进化的地方。
身为马车,我们真不要笑话早期汽车的“愚蠢”……所有当年批评汽车愚蠢的地方,都是汽车如何一点点改进的地方。
它改进后的结果是什么?是现在的马儿都只能安心吃草了……
是的,根本连拉货的资格都没有。从种群的角度看,现在地球上马的种群蓬勃还是200年前马的种群蓬勃?AGI最终将导致根本不需要那么大“人的种群”……
下面都只是我的个人视角。既然只是个人视角,肯定有局限的地方,大家随意进行有理有据,基于事实的讨论/批评。
个人经历:大概做了10年的统计/机器学习工作(PhD前半段在德国Humboldt,后半段在UCBerkeley),10年的一线机票工作,理解我们人的行为模式,N年(具体不知道怎么算,还在ongoing)的经济/金融工作……
非常Mixed,但基本明白了每波人是怎么思考问题的(很多各行业的人都在各说各话)。
下面开始,首先要强调的是,以下这些不分前后/轻重顺序,就是一个个列下来的。
1.一般在生活中,我们什么时候会觉得一个人“聪明”?懂得多是不是聪明?不是的……只是个字典而已。
那什么是?
从智商的角度而言,是“学得快”=学习的一阶导数高。
从技术人员的角度看,就是能够对新知识做出“尽可能快的立即的更新”。
这事说起来容易,实际上很难。因为一旦有新数据/新知识进来,训练大模型的整个数据集就变了,统计模型就需要重新全部训练一遍(estimateparametersetc)。
不过我们人脑是不是这么工作的呢?显然不是,我们基本是:
“新知识”如果和我们已有的东西差不多,我们人脑就把它忽略;如果和我们已有的东西差别很大,再吭哧吭哧地学习。
翻译成机器语言就是:
新知识进来,我们其实是先做Inference,看下ModelEstimate的结果和新的这个是否差别很大。
如果不是,说明不是“根本性新知识”,Skip模型新训练;
如果是,说明是“新知识”,可能就得Re-Training了。
这是加快学习速度的一个方法,还有其他的。
从情商的角度而言,“聪明”是会“察言观色”(大家请正面看待这个词),翻译成技术语言,就是会采集对象发出的多种信息,比如表情,比如动作,进而进行评估。
举个前两天和老朋友聊天时的例子,对方谈到一个事情时发了一个捂脸哭笑的表情,我看到后突然发现,这不和我们处理和自己女儿时一样嘛……这个动作=无可奈何。
翻译成技术语言可不可以?当然:增加Sensor对对方的非语言数据进行学习……当然,技术上的数据量多了很多(而且还是三维的),但不代表不能学,假以时日而已。
2.“聪明”与否都是个相对的概念,从人类社会行为/人性的角度而言,大家对相对比自己强的人都会有种天生的崇拜。
如果一个小跟屁虫始终跟随着你,你反倒会觉得它笨笨的;
如果一个东西始终比你快半拍,lead你,你反倒会觉得它很聪明。
这些当然不一定指所有方面,可以单指某一个专业领域。
于是,我找那些实际专业领域的专家整理出专业的Lead用户的工作流喂给AI大模型来训练,拿它天生训练出来的就是lead用户的行为方式。
这像什么呢?火烈鸟的红色不是生来就有的,刚出生的小火烈鸟灰扑扑的,后来吃多了含有大量叶红素的蟹、虾后,逐渐就变红了……
Samehere,你喂给大模型什么“性格”的数据,大模型就会有什么“性格”。(当然了,这里可以被用来做很多坏事,不想细谈)
3.“权限”:比如Chatbot很多时候让你觉得笨,是它没被给予一定权限,否则很容易被Abuse……
比如customerservices,尤其是在机票customerservices行业,目前有个“无解”的问题:真正找客服的时候基本都是要客服做些“超出网站权限”的事。
但各大公司普遍不想开放给chatbot这些“超出规则的权限”,因为真的会被abused滥用……
结果就是,到chatbotcustomerservice这里,最起码我所知道的这些agents用起来,100%都要直接接活人,才可以overthelimit/rule,有时候还需要supervisorapprove才可以。
所以他们是否会被“智能地授予权限”?当然。
还有个类似的开车上的例子:TeslaFSD,在超大卡车的时候仍然是居中往前开,但就会给司机很强的“压迫感”。
我们人不是,哪怕是故意破坏规则,我们也会通过一侧压线的方式来尽量远离大卡车……这种故意“破坏规则来追求更加安全”的事AI未来是否会做?那么一开始是否要为它设置那些“不可破坏”的规则?还是要严格遵守交通规则?
除了这些,肯定还有很多,大家补充。
来源:小王科技观