- 文章信息 -
作者:裘炅,中国-奥地利人工智能与先进制造“一带一路”联合实验室 AI首席,责联网、尽责学习创始人。
笔者从2016年即开始自费研究超级人工智能(ASI),并进行阶段性的责联网实践,所以对通用人工智能的研究还是领先的,是原创型的。另外笔者还著有《责任信息学》、《风险认知学》、《认知智能学》,其中《责任信息学》已出版。
数智化时代制造业的主要难点
从制造业数字化转型遇到的问题、战略层面的问题和行业整体的问题来展开。
1.1 制造业数字化转型的问题
当前制造业数字化转型过程中存在的问题:
1)当前软件应用条块分割、功能偏单一;技术力量和运维队伍薄弱,平台持续改进完善的体系机制尚等完善。
2)数据管理与治理当前是主要问题,数据中台、治理工具匮乏,部分数据资源的质量源头治理还有待提高;
3)智能应用尚处于起步阶段,对制造业的场景优化的机理模型还没形成体系化;
4)数据的资产价值正待挖掘,数据要素对制造业业务转型的驱动力还没显现;
5)既懂制造业务、又有IT能力,能支撑制造业数字化系统建设与运维的高技术人才匮乏;需要理解制造企业战略统筹和数据治理融合执行的数字化领军人才。
1.2从企业战略层面存在的问题
从企业高层思考的问题有:
1)管理问题:条块分隔,难以从整个企业的角度来统筹,难以形成战略高度和执行力。欠缺有效的管理抓手。
2)技术问题:数据涉及面广、数据量大,产品质量难以保障,数据质量也难以得到有效的管控;各种风险识别缺乏有效的工具,导致技术水平不高。制造行业的新产品需求设计、质量管理、合规管理、安全生产、创新升级等多个场景存在如何以数据优化驱动,以实现转型升级、提质增效。
3)综合问题:数字化转型的高端人才不足,尤其是数据资产的高端人才不足。
4)制造业碳排放占三成,低碳也是十分重要,如何实现制造业绿色化、环保化也是需要解决的问题。
5)人工智能应用难以真正全面解决问题。
企业若要实现全方位转型仍需突破重重困局。一是制定战略目标,92%的高管认为数字化转型的核心前提是清晰、定制化的战略规划,但目前已制定转型战略并展开行动的企业仅占50%。二是挖掘实施场景,90%的高管认同数字化转型要找准切入点,但由于场景众多且经验匮乏,企业难以精准聚焦场景。三是平衡效率韧性,96%的企业供应链受到疫情冲击,亟需利用数字化转型提升响应速度和抗风险能力。四是共创创新生态,83%的高管认为数字化时代,企业之间的竞争已扩展至生态圈,企业应进一步加强与生态系统的互动。
1.3 制造业行业的问题
从中国制造业的痛点来看:
1)原创不强:制造业目前普遍存在创新能力不足,原创基本没有,以当前比较强的电动汽车为例,主要也是以市场拉动一定的创新,在电池材料、动力驱动、储能、自动驾驶等基本都是集成创新,全球领引型的原创不多,形成的产业链也主要是市场先发优势。
2)质量不高:产品质量还没形成有效的责任追溯体系,同质化竞争激烈,产品高质量的设计能力、监测能力和管控能力还有待于更进一步的体系化。
3)高端制造效率相对低:加工的高端装备、开发的基础软件和工业设计软件、高端芯片、高端材料都受制于人。
4)利润不高:同质化竞争,有竞争力的盈利能力不足。
5)成本难以下降,人力成本近几年越来越提升,自动化换人后也存在柔性不足,产品变更升级的成本失控。
如何通过现在的大模型来解决以上问题
对以上问题进行总结成以下四个方面:
1)技术方面的难题:通过技术手段解决各场景中的一些问题,比如新产品需求设计、质量管理、合规管理、安全生产、创新升级、低碳转型等
2)人的素质提升:需要形成从高端创新型人才、综合型人才到强执行力人才的人才梯队。
3)管理方面的难题:从战略设计、战略优化、战略执行(落实、执行)等形成管理的抓手。
4)综合(文化)方面的难题:价值观、能力成熟度、组织各级的激发、战略数字化领导力。
另外当前的大语言模型、AIGC等还不没到通用人工智能,所以先从目前相对成熟的技术上来解决以上一些问题,受当前的技术解决能力所限,应用时还难以较好解决以上问题。
2.1技术场景
包括新产品需求设计、质量管理、合规管理、安全生产、创新升级、绿色低碳六个场景,在多模态大模型(LLM+AIGC)的基础上再扩展解决。
主要从:AIGC的感知、情景计算,以及LLM的认知推理上进行完善及应用。技术细节不一一展开。
● 场景1:智能网联机器人设计(机床、车辆等)
描述:设计一个可以自动识别材料,以及加工后的半产品(部件)形态、指标要求,可以自动进行物料检测、物料加工工艺设计、刀头自动选择、加工路线自动设计、零件自动装配、自动质量检测的半产品。
要解决的问题有:用户需求怎么形成价值可评估的指标点;如何让全部设计人员、制造人员理解需求;物联数据怎么有效采集?怎么有效验证?
1)建立设计大模型
建立金属材料、刀头、材料力学、加工工艺、夹具、五轴计算、BOM设计、加工BOM、公差、量具等相关知识库。
完善已有需求及其对应的设计资料,将设计过程尽可能详细化。
2)验证标准化设计过程
通过对已有标准化的需求进行设计过程的验证,确保出错率有效控制。
3)AIGC相关库的应用
将CAD、CAE、CAPP等进行MBSE的标准化改造,实现基于SysML的可描述的过程,通过辅助代码和AIGC实现过程的打通,结合已有功能分配给相应的人员或机器理解。
4)验证机制的建立
在SysML的基础上结合RAAML来实现需求功能性的验证。通过大模型中的需求功能失效性机理模型,结合已采集或已更新的数据来进行综合分析,这一过程还需要给出哪些数据已完备,哪些数据没及时更新。
从而实现整个产品设计到生产的闭环验证。增效明显,质量的全面性有一定的提高。
不足点:
1)需求设计的标准化是否准确,设计是否有竞争力,需求是否可以创新式引导?深层次的有竞争力的改进还需要不断完善。
2)功能需求的可视化生成是否准确,准确率有多高?材料识别、工艺识别智能性不高。所以对于可视化的结果还需要有经验的专家把关。
3)功能验证不一定全面,只能参考。
● 场景2:药品GMP质量监管
描述:确保每一个环节GMP是可控的,质量保证如何从材料、生产设备/设施、环境和管理上实现,并完成药品质量风险可控。
要解决的药企问题有:外部投诉、召回,投诉率为0,召回率为0;内部质量管控,批次不合格率为0;供应商质量控制/供应链稳健性,批次不合格率为0-0.001%;研发质量设计:无效的OOS率为0;设备设施成熟度:设备设施的质量缺陷率为0-0.001%。
以下是所需的行业大模型处理机制
1)建立质量相关的大模型
建立细化的知识库和指标库:批次接受率、投诉率(总体和关键)、确认的OOS率、召回事件(总数和分类)、无效的(未确认的)OOS率、稳定性失效率、一次成功(返回、重新加工)率、年度产品回顾按时完成率、偏差重复发生率、CAPA有效率、偏差发生率、物料进厂检验率。
2)通过大模型建立质量管理数据的物联网
确保以上数据可以实时采集,同时判断质量可能存在的问题。
3)建立以上指标的分析、可视化库
通过AIGC来读懂多模态的工艺过程,;或者通过预测来显示后面的指标变化造成的问题,帮助员工来理解如何控制质量。
4)过程分析GMP工作
形成风险的指标成熟度(风险中台)、质量成熟度(质量目标中台),分析统一化:PHA、FTA、FMECA、FMEA、HAZOP、HACCP等,质量偏差、验证管理的风险模型;对创新药的风险累加模型进行设计,确保创新风险管控的正确性,可以让研制人员有更好的风险管控意识。
产品缺陷检测、产品质量分析、生产线监控分析,如图1所示,将大模型和AIGC进行系统级、算法级整合,来实现不同的应用。
增效明显,但还存在不足点:质量感知不到位,质量管控的容错率相对还是低,所以还是需要人为审核。
● 场景3:合规管理
描述:如何实现制造企业在法律法规的合规管理
要解决的问题有:合规的主要法律风险,制造企业各主要岗位要审查的法律合规流程,
1)建立合规法律大数据
国家法律法规数据库:官方法律法规数据库;中国裁判文书网:裁决书、裁定书、决定书等;由论坛、新闻、法条、司法解释、法律咨询、法考题、判决文书组成。随后经过清洗、数据增强等来构造大模型的数据。
2)与合规性相关的业务过程
3)结合业务过程给出每一个业务的合规要求
在增效、合规全面性的同时还存在:1)如何更合规缺乏指导;2)合规案例相对欠缺;3)合规变化大,法律标准经常几年会更新,之前的案例会不准确。
● 场景4:安全生产
描述:如何确保生产车间不出事故
要解决的问题有:哪些是会出事故的危险源,如何确保危险源的风险,确保不出事故。
1)建立安全生产大模型
建立危险源、风险识别、风险管控等知识库,构建大模型
2)AIGC用于培训教育、风险检测
3)监测全员不出事故
还存在以下不足:1)大模型的风险不全、不深;2)风险数据更新不及时,难以有效监管;3)AIGC对风险的理解还不够,培训效果打折扣。
● 场景5:创新升级
描述:制造业转型升级
问题:设计出有行业竞争力的产品、可行的商业模式及支撑
1)建立需求+问题+专利大模型
2)预测创新趋势
3)创新产品的大致商业模式构建
效果不明显,主要在:创新趋势相关性数据少,行业发展需要有基础和颠覆性技术的符合性依据。
● 场景6:绿色低碳
描述:制造业占了碳排放的30%,有必要进行降碳
问题:制造业如何节能降碳
1)建立能耗、生产过程、工艺大模型
2)给出设计时的降碳绿色建议
效果不明显,只有有限的做法,因为受限于能源、设备等。
大语言模型和AIGC的结合,形成各种可以组合的形态。
随着人的能力从劳工、人事到人力资源,再到智能化辅助的数智人,现代管理100多年的历史,进入到数智化时代,尤其是通用人工智能时代,目标的管理智能十分重要。
从信息化时代的目标:合规设计、精益管理;到数字化时代的目标:财务全面内控、卓越绩效;再到通用人工智能的目标:全面风险、全员尽责。
通过对所有的人、物、环境、管理风险源的全面梳理,整合到全面风险中的风险时空中,实现风险动态指标化,通过管理手段的映射,从风险时空进行技术、管理、文化派生到责任时空中,责任时空中再实现“人人有责、人人尽责”的机制,同时再根本履责缺陷来实现培训、教育提升的机制。
可以实现目标指标、风险指标、责任指标、能力(素质)指标再到价值指标的指标智能。
实例可以让每一个管理人员都具有数字化的领导力,通过不同的指标关系,快速显示能力有缺陷的责任点及责任人,实现量化的科学决策。(具体实例可以参考责联网体系)
通用人工智能的升级需要
3.1 可自我完善的AGI
通用人工智能:会分析问题,想象场景,理解瓶颈问题,给出瓶颈问题的原理,给出数据驱动的机理模型,形成可行的解决方案,并进行过程验证,根据验证结果再进行改进,对于复杂的,可以逐步验证并及时修正。
对产品质量,到底是加工工艺引起的,还是加工过程管控不力累积引起的,还是原材料质量检测不力,还是后续污染引起的,比如对创新产品就需要有这么一个通用机理+专用机理,可以用于智能分析和智能决策。
3.2通用人工智能的架构
通用人工智能目前还没一个完整的蓝图,定义相关的可以参考附2。目前全网知识搜索的结果只有预测,并没有清晰的路线图,目前OpenAI对外发布的AGI也不清晰。但有一点有相当的共识,即通用人工智能是与意识相关的。
所以如何对意识进行建模是关键,ChatGPT的大语言模型提供了类似意识的能力,通过建立高维关联,实现词(Token)间的类似意识的能力。
意识最难建模的是其不确定性,而这个不确定性是分层级。
时间和空间的不确定性是相对固有的,不完全属于意识空间,这属于物自体空间的,有时候也称为环境的不确定性。
其中感觉的不确定性,有视觉、听觉、味觉、嗅觉、触觉、味觉上的不确定性,可以形成对时空不确定性的叠加,比如太阳是围绕地球转的错觉;情景上的不确定性,有动作、表情、情绪、内心想法等。
其中目标上的不确定性,则是为了完成某一动作、活动或协作所拟定的(多)目标(集),影响目标完成的不确定性,有法律、法规、标准、制度、设备设施、环境方面的综合影响。
其中价值上的不确定性,则是人的能力、价值观上的不确定性。
能表征不确定性就可以很好地表征意识,但穷举了目前已有的建模机制或算法都很难表征。参考ISO31000-2018和GB/T 24353-2022对风险的定义为:影响目标的不确定性,以及如图8所示现代风险管理的历程,可以列出如表2所示的风险和不确定性的对应关系。基本确定用全面风险来建模意识会是当前最佳选项。
风险可以分为人的风险、物的风险、环境的风险、管理风险、协同风险和文化风险。当然协同风险也可以认为是人的风险。
于是综合以上,通用人工智能的架构所示,形成从感觉智能、情感智能、管理智能再到责任智能的多级AGI能力架构。
可以认为大语言模型(LLM)如Llama是助理级别,形成了通用人工智能的世界智能基座,当然目前的世界知识基座还是不够支撑,比如实时更新能力、学习能力、纠错能力、幻觉控制等能力不足,这些不足能力又形成了AGI世界知识的风险;而AIGC + Llama(包括输入、输出)则具有了高级助理的能力,使得各种输入不限于文本,还有图像、视频、声音、味道、触觉等,同时输出时也可以采用这些媒介,使得沟通机制更多样化,尤其是通过世界知识处理后,能快速实现较好效果的功能,有明显的增效、降本效果,世界知识深入沟通后还可以有提质之效。
情感智能级,也是加入了情感计算,包括动作/行为的识别、表情识别、情绪管控、内心想法判断等,实现了以人为本式的激励机制,所以可以用于执行或落实任务这一层级。也开始正式进入到通用人工智能的低层级。
管理智能级,实现了目标的管理风险的指标化,同时可以集成上面的人、物、环境的风险,形成岗位能力匹配的风险清单和责任清单,并实现人的能力的提升,以及价值的更好实现。是通用人工智能的中级能力。
责任智能级,则可以实现目标的风险自动化、全员尽责辅助自动化。创新、文化等也形成为相应的目标。且在一定程度上可以实现自动尽责,这就形成了具身智能。是通用人工智能的高级能力。
发展趋势
4.1 尽责学习
为了实现目标、价值不确定性的学习机制,从而将感知智能形成为通用人工智能的高阶认知智能。
需要将当前各种学习机制进行大一统,需要将表1的风险知识库通过深度学习形成可靠的风险大模型,其中就有目标、价值的认知智能,而这一块定义为尽责学习。
实际使用时,可以定义多个目标,自动生成履责的风险、责任清单,以及相应的指标内容,如图10所示www.cechina.cn,可以实现全员的辅助尽责。
4.2 具身智能
在上一节的基础上,可以辅助人工尽责,则通过对硬件设计后,也具有担责能力,而这就具有了法律意义上的履责身份可能,如图11所示,就形成了不同履责能力的具身智能(软硬件一体)。
具身机器人(包括车、船、飞机等)实现具身型,也是真正可以与人在技术、管理、文化上进行协同。
4.3 认知型芯片
芯片也可以从信息型,向认知型发展。
附1、当前的政策解读
北京市人民政府办公厅于2023年5月印发《北京市促进通用人工智能创新发展的若干措施》的通知。2023年6月26日《人民日报》刊登文章:中共中央政治局会议指出,要重视通用人工智能发展,营造创新生态,重视防范风险。
2023年6月14日欧洲议会投票通过了关于《人工智能法案》的谈判授权草案。这是欧盟准备针对ChatGPT等应用的人工智能法规,旨在确保人工智能系统(AI)受到监管,决定如何对人工智能应用进行分类,以及什么样的活动不被允许。该法案将严格禁止“对人类安全造成不可接受风险的人工智能系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等,涉及安全、透明度、隐私和人力监督等方面的问题,有着直接禁止的人工智能用例的明确清单。
附2、AGI定义与大模型
通用人工智能(AGI)指的是一种理论上的形式的人工智能,具有全面理解、学习和应用知识的能力,与人类智能在各方面上都相当或者超越。这种类型的AI能够理解、学习和应用其在一个领域学到的知识到任何其他领域。
通用人工智能的定义还有:是指达到或超越人类水平的、能够自适应地应对外界挑战的、具有自我意识的人工智能。
通用人工智能与当前存在的人工智能(通常被称为弱人工智能或窄人工智能)有很大的不同。当前的AI系统通常在一个非常特定的任务或一组任务中表现出超人的性能,例如围棋、语言翻译、图像识别等,但它们缺乏在一个任务上学到的知识应用到其他任务的能力,也没有真正理解它们正在做什么的能力。
当前火热的GPT等大模型仍然是一种窄人工智能(Narrow AI)或特定人工智能(Specific AI)。它们被训练来执行特定的任务(在这种情况下是生成文本),而并不具有广泛的理解能力或适应新任务的能力,这是AGI的特征。
然而,GPT和AGI的关联在于,GPT是当前AI研究为实现AGI所做出的努力中的一部分。它表明了预训练模型的潜力,并给出了一种可能的路径,通过不断增加模型的规模和复杂性,可能会接近AGI。但是,这仍然是一个未解决的问题,并且需要更多的研究来确定这是否可行,以及如何安全有效地实现这一目标。
尽管GPT在生成文本上表现出了强大的性能,但它并不理解它正在说什么。GPT没有意识,也没有理解或意愿,它只是学会了模拟人类语言模式的统计模型。这是目前所有AI系统(包括GPT)与AGI之间的一个关键区别。
AIGC(Artificial Intelligence Generated Content / AI-Generated Content)中文译为人工智能生成内容,一般认为是相对于PCG(专业生成内容)、UCG(用户生成内容)而提出的概念。AIGC狭义概念是利用AI自动生成内容的生产方式。广义的AIGC可以看作是像人类一样具备生成创造能力的AI技术,即生成式AI,它可以基于训练数据和生成算法模型,自主生成创造新的文本、图像、音乐、视频、3D交互内容等各种形式的内容和数据,以及包括开启科学新发现、创造新的价值和意义等。
我们仍然远离实现通用人工智能。实现这个目标需要解决许多重大的科学和技术挑战,包括但不限于语义理解、共享和迁移学习、推理和规划,以及自我知觉和自我理解。
《北京市促进通用人工智能创新发展的若干措施》给出的探索通用人工智能新路径:
发展面向通用人工智能的基础理论体系,加强人工智能数学机理、自主协同与决策等基础理论研究,探索通用智能体、具身智能和类脑智能等通用人工智能新路径。支持价值与因果驱动的通用智能体研究控制工程网版权所有,打造统一理论框架体系、评级标准及测试平台,研发操作系统和编程语言,推动通用智能体底层技术架构应用。推动具身智能系统研究及应用,突破机器人在开放环境、泛化场景、连续任务等复杂条件下的感知、认知、决策技术。支持探索类脑智能,研究大脑神经元的连接模式、编码机制、信息处理等核心技术,启发新型人工神经网络模型建模和训练方法。
附3、可工程化的人工智能
附3.1 AI工程化
AI工程化,按Gartner比较官方的定义,是“使用数据处理、预训练模型、机器学习流水线(MLOps) 等开发AI软件的技术统称,帮助企业更高效的利用AI创造价值”。“智能相对论”认为,AI工程化更简单的理解CONTROL ENGINEERING China版权所有,就是已经十分成熟的软件工程将“软件”扩展到AI后的一种针对AI开发特点的适配与进化,通过系统化、规范化、可度量地使用各种工程方法和工具,确保AI软件能够达到预期。
问题描述:
人工智能的核心是机器学习,机器学习目前最核心的是深度学习,目前都是缺乏一套完整的数理基础,所以人工智能更多是一种大杂烩,而不是一个真正意义上的学科。
各种机器学习这几年无论是理论上还是应用上,都十分热,比如监督式学习、增强学习、自监督学习、无监督学习、联邦学习等不同的机器学习方法都在不同程度地进行算法完善、理论扩展,以及应用试水。但总的效果不是很理想,主要表现在:复杂工程化和产业化普及不了,性价比低下,效果不及预期。以AI换人目前完全做不到,无人工厂更多只是取代标准化操作规程CONTROL ENGINEERING China版权所有,难于满足市场竞争所需要的动态价值变现需求。
问题产生的背景:
学术界先提出,卡耐基梅隆大学软件工程学研究所于近年启动人工智能工程化研究,并联合高校和工业界承担了一项由美国官方机构资助的国家研究计划;世界知名人工智能专家乔丹院士(Michael I. Jordan,美国科学院等三个院的院士)、邢波教授等认为人工智能工程化是一门新兴的工程科学,是人工智能从理论学科到工程学科发展的趋势。产业界如Gartner 连续两年把人工智能工程化列为年度战略技术趋势之一,阿里云等企业把人工智能工程化视作将AI 变为企业生产力的关键。
在2019年,由国际系统工程理事会(INCOSE)主办的“系统工程的未来”(FuSE)研讨会上,首次提出了“SE for AI”(又称SE4AI)这一术语,来描述应对人工智能实际应用的挑战所需要的工程方法与技术,这些挑战主要被概括为三方面:AI系统本身的不可预测性、AI系统中新的故障模式、以及AI系统在可信和健壮性方面的不足。
2021年10月,在Gartner公司发布的《2022年十二大重要战略技术趋势》中,将AI工程(AI Engineering)列为未来三到五年 企业数字业务创新的加速器。
Gartner的研究表明,只有53%的项目能够从AI原型转化为生产。而AI 要成为企业的生产力,就必须以工程化的技术来解决模型开发、训练、预测等全链路生命周期的问题。
AI工程的出现,正好能弥补这个短板。进一步,随着AI大规模的“平民化”,应用场景的丰富会不断催熟AI工程;而AI工程则会对场景落地提供关键支撑,相辅相成。
附3.2 AI与风险
美国国家标准与技术研究院(NIST)于2023年1月发布了《人工智能风险管理框架》(AI RMF)(以下简称《框架》)1.0版CONTROL ENGINEERING China版权所有,可供相关组织设计和管理的可信赖和负责任的人工智能,旨在指导机构组织在开发和部署人工智能系统时降低安全风险,避免产生偏见和其他负面后果,提高人工智能可信度。
七国集团(G7)数字与技术部长会议的参会者于2023年4月30日同意对人工智能采取“基于风险”的监管。但七国集团部长同时表示,此类监管还应为人工智能技术的发展“保持开放和有利的环境”,并以民主价值观为基础。
欧盟于2023年6月通过《人工智能法案》草案,如附表1所示,在风险管控上比当前美国的更易于在技术规制上进行操作。
欧盟人工智能法案
美国人工智能权利法案蓝图
风险管控
对人工智能系统风险程序进行分级,分为不可接受的风险、高风险、有限风险、最小风险,并对不同风险程度采取不同的监管措施
不涉及风险分级
技术规制措施
对于创建和应用人工智能技术的公司或企业,提案规定了在八种高风险领域范围内使用人工智能技术,严格的防护机制,若企业违反规定将处以高达3000万欧元的行政罚款或其全球年度总营业额的2%-6%,取两者较高金融处罚。
在技术管理方面,仅陈述问题,并未给予实际规制措施