摘要:如同蒸汽时代的蒸汽机和电气时代的发电机一般,如今的人工智能技术正在成为推动人类进入智能时代的决定性因素,从聊天机器人到自动驾驶,从智能制造到药物研发……层出不穷的AI应用正在为我们揭示数字世界的全新可能,仅仅在2024年,我们就看到了众多AI研究成果走出实验室
如同蒸汽时代的蒸汽机和电气时代的发电机一般,如今的人工智能技术正在成为推动人类进入智能时代的决定性因素,从聊天机器人到自动驾驶,从智能制造到药物研发……层出不穷的AI应用正在为我们揭示数字世界的全新可能,仅仅在2024年,我们就看到了众多AI研究成果走出实验室并成功落地,越来越多的企业也开始积极拥抱AI,为自身带来更加深层次的价值和服务,从而在数智转型的道路上加速前行。
毫无疑问,人工智能在很长时间内依旧火热,企业如何通过AI创造价值?人工智能是否会越来越接近人类?负责任的人工智能如何打造?笔者近期采访了三位IEEE(电气电子工程师学会)专家,就以上问题展开了探讨。
企业AI迎来爆发
AI浪潮之下,企业对AI的思考已从“要不要用”转向“如何用好”的战略局面,于企业而言,布局AI不仅是简单的技术叠加,更是思维方式和组织能力的全面升级。
这里的“技术叠加”主要指的是类似部署聊天机器人这样的方式,不过也并不是说聊天机器人对企业就完全没有作用,事实上,聊天机器人仍然是最直接的将大模型能力整合到企业内部流程的方法,如果企业的内部问答知识库完善,且能够对大模型进行较好的微调,是可以有效实现客服中心降本增效的。
以Shulex携手亚马逊云科技携手打造的基于AI大模型基础研发的新型聊天机器人Shulex AI为例,该客服机器人可以自动回复,处理售前、售中、售后等客户问题,并能够根据用户提供的历史回信、聊天对话、文档资料、公开网页信息自动学习知识,并生产问答(FAQ)知识库,从而帮助跨境电商企业加速智能出海。
“当然,AI能为企业创造的价值远远不止客户服务,对企业而言,要想用AI创造价值,首先要明确自身的业务方向,即了解企业自身的服务是什么,能对客户提供什么价值,一个制造企业使用AI和一个金融科技使用AI肯定是不同的。其次,在梳理清楚企业能够提供的服务后,还需要盘点企业的数据资产,因为数据才是AI发挥价值的源泉。”清华大学计算机系人机交互与媒体集成研究所科研工程师,IEEE数字金融与经济标准委员会秘书长,中国通信学会区块链委员会委员丁慧补充道。
在今年,可以预见的是越来越多的企业都会将AI深度融入到自身的业务流程中去,用于解决关键业务的痛点,并在以下内部流程中发挥重要作用:
首先,AI技术可以精准识别业务瓶颈,并通过自动化相关流程减少重复性的人力劳动。例如在财务和行政工作中,AI技术有望打通文档流转的壁垒,加速文字处理流程,大幅降低人力成本并显著提升业务效率。
其次,AI可以增强商业决策的支持能力,通过商业智能和预测分析,AI能帮助企业更准确地洞察市场趋势和客户行为。例如在供应链管理中,AI可以优化仓储数据处理,辅助库存管理与需求预测,从而实现供应链的高效和可持续发展。
最后,AI也能促进研发与生产创新。通过生成式AI和AI辅助设计技术,企业可以加速产品模拟与迭代,提高研发效率。同时,AI在预测性维护中的应用能够延长设备寿命,降低运维成本,提升企业的综合生产力。
香港中文大学信息工程系教授,ACM Fellow和IEEE Fellow邢国良表示,企业利用AI创造价值的关键在于确保风险可控的前提下,将AI 技术应用与商业目标深度融合,在这个过程中,有几个关键点特别值得关注:
第一,明确业务目标。在部署AI之前,企业必须清晰界定其商业目标和核心痛点,避免盲目追逐技术而忽视实际价值。AI的应用应该以提升效率、优化客户体验或创造竞争优势为导向,而不是单纯为了迎合潮流。
第二,数据质量与合规管理是AI应用的基础。AI系统的性能高度依赖于数据的质量、完整性与多样性,这些因素直接影响模型的效果与可靠性。企业应建立完善的数据治理机制,确保数据的合法采集与合规使用,防范因数据偏差或错误导致的模型失真与决策风险。
第三,持续监控与动态优化是保障AI 长期价值的关键。AI系统的性能会随着业务环境的变化而波动,因此企业需要设立持续的监控与反馈机制,及时调整模型参数,优化流程设计,以确保系统的稳定性和高效性。
从工具到“更接近人类”
在过去的一年里,AI模型变得更快也更加高效,进入大模型时代,AI已经在某些创造性领域展现了出众的能力,例如通过生成式AI 模型创作艺术、音乐和文学作品;同时,在客户服务和心理健康辅助等场景中,AI也表现出不俗的自然语言理解和情感识别能力。
然而要注意的是,当前AI表现出的创造性和“人际交往”能力主要基于对已有数据的模式分析与重组,尚缺乏人类创造力中独有的灵感、情感深度以及对文化背景的深刻理解。
随着算法和技术的进步,人们希望AI能够通过更加复杂的算法和多模态学习能力以接近人类的创新过程,从而实现更高水平的创造性输出。这也和时下热门的AI模型研发方向不谋而合,即朝着理解人类认知发展及人脑神经网络构建方式进行,从而让AI像人类一样思考、学习及进化。
当然,AI的“进化之路”也并非一帆风顺,丁慧博士表示,目前这条路线主要有两大挑战,第一是理解人脑的挑战。这需要认知科学、神经科学、心理学等跨学科的能力,且由于大脑这个动态系统需要实时进行各种胜利和认知活动,实时监测和分析需要高度专业的技术和设备,还需要收集足够多的被试样本。第二则是模拟人脑的挑战。人脑拥有约100亿个神经元,每个神经元又与数千个其他神经元相连,通过神经突触形成极为复杂的网络,需要有足够的计算资源来处理复杂的分析任务和海量数据。
不过,目前已经有很多企业和高校的AI从业者正在从数据集、软硬件等多个方面推进,提升AI的能力。未来,如果人类能继续设定AI工作目标及评价AI的应用效果,AI的能力集也会越来越像人类靠拢。
构建更负责任的人工智能
过去几年里,人工智能作为信息技术发展的最前沿,大幅提升着人类认识世界和改造世界的能力。但要明确的是,创新与安全是人工智能健康发展的一体两翼,特别是对人工智能技术的不当使用势必会带来一系列难以预知的风险挑战,例如部分企业的机密信息被聊天机器人泄露,又或者生成式AI被黑客滥用在网络攻击领域等等。
此外,人工智能本身还存在幻觉问题,从自动驾驶汽车可能的错误判断到智能助手误解指令,再到医疗诊断工具的误诊,AI幻觉遍布于我们日常生活的每一个角落,并且由于技术的限制和人类认知的不足,AI幻觉本质上是难以避免的。尽管技术人员正在努力提升AI的准确性和可靠性,但由于数据的不完整、算法的局限和复杂的交互环境等因素,AI幻觉仍然频繁出现,且难以完全消除。
IEEE元宇宙标准委员会秘书长,IEEE元宇宙标准工作组主席马忻表示,目前的人工智能确实存在偏见和幻觉等风险,但是为了技术发展,从政策制定者的角度,并不应该对技术本身进行限制,但是要对人工智能生成的内容进行标识。我国在2024年9月发布了《人工智能生成合成内容标识办法(征求意见稿)》,美国和欧盟也有类似的法案。这些标准与法案可以一定程度减少人工智能的风险。
“拿最近的例子来说,西藏地震灾害发生的时候,有人通过人工智能技术生成了一张灾区小孩子被压的内容并在社交媒体传播,虽然他的意图可能是好的,但也会造成对灾区实际情况的误解。而如果人工智能生成的内容有标识的话,社交媒体平台就很轻易的可以识别出这种内容并限制它的传播。而对于人工智能的偏见与幻觉问题与技术本身相关,可以通过行业内部,如协会等进行规范。”马忻补充道。
不难发现,在人工智能颠覆性力量逐步显化的过程中,AI治理是十分关键的,这也是“负责任的AI”开始流行的原因,所谓负责任的AI,是指以道德、透明、负责且符合社会价值观的方式开发、部署和使用人工智能的实践。它是为了确保人工智能技术的设计和使用优先考虑公平、隐私、安全以及个人和社区的福祉,同时减轻歧视、伤害和滥用等风险。负责任的人工智能涵盖了广泛的原则、指南和最佳实践,旨在确保人工智能造福所有人,同时最大限度地减少潜在的负面影响。
马忻表示,对企业来说,应该从以下几点来确保自己在使用人工智能时是更富有责任的:
首先,企业一定要遵从国家相关法律法规,因为这是最基础的道德要求。
其次,行业在竞争的同时也要与其他上下游企业、学术界等相关方联合起来,共同制定高于法律法规的行业标准。如IEEE对于技术的道德方面有IEEE7000系列标准,其中人工智能方面的标准也在开发中。当然,企业本身要有更高的追求,要在人工智能使用上更富有责任。
而一旦不负责任地使用人工智能,也会引发各种严重的后果,例如虚假信息的转播。如果在内容标识政策法规落地前,以目前的技术看,甄别这些信息已经有一定难度,而技术的继续发展有可能产生完全以假乱真的信息。这些信息的转播有可能造成巨大的社会问题。美国在2024年总统选举期间就曾经担心DeepFake内容会影响大选结果。人工智能换脸技术现在已经成熟,可以根据别人几张照片就生成换脸的视频或图像。如果没有得到授权,就非常有可能造成侵权,甚至造成犯罪。
技术本身并无善恶,但技术的发展与应用必须合乎人类主流价值规则体系,如此方能行稳致远。发展负责任的人工智能,建设合乎伦理、安全可靠、尊重知识产权的人工智能,才能进一步释放AI技术红利,推动新质生产力加快发展,为整个社会勾勒出美好的未来。
来源:中关村在线