11月20日,领邦智能董事长崔忠伟博士应邀参加2024中国5G+工业互联网武汉大会,并发表《视觉检测大模型及智能体》主题演讲,下文根据崔忠伟博士的主题演讲内容整理而成。
尊敬的各位领导、专家、投资大咖、朋友们,上午好!
我是北京领邦智能装备股份公司董事长崔忠伟。今天,我演讲的题目是《视觉检测大模型及智能体》。
首先,我们的大模型定位如下:
自研原创:这是我们自主研发的原创大模型,基于先进的 Transformer 结构,是单模态,不是多模态;
视觉检测模型:是视觉检测大模型,不是生成类大模型。
海量工业数据训练:模型训练基于海量工业图片数据,数据来源于链接公有云的近千台设备,为模型提供了丰富而多样的训练素材。
机器视觉产业被预见为万亿级市场。视觉技术在现代工厂中已经像扳手一样成为一种普遍的工具。然而,这个市场却呈现出高度分散的格局,拥有超过2000家企业,市场碎片化现象十分明显。究其底层逻辑,是因为这一市场的核心技术尚未实现通用化——具体表现在工业成像技术和图像处理方法的非通用性。
领邦智能的突破正是解决了这一关键问题。通过大模型的方法,我们实现了图像处理方法的通用性,为机器视觉行业提供了真正意义上的通用生产力。这一创新不仅提升了行业效率,也为市场整合和规模化发展提供了基础。
自2016年以来,小模型(基于CNN结构)在产业化应用中展现出卓越的优势,尤其是在复杂目标识别方面,其精确度远超传统的机器视觉“规则时代”。然而,小模型的广泛实践也暴露了一个重大痛点:使用成本高昂。这一问题主要体现在以下两点:
1.大量现场样本需求:小模型依赖于大量现场样本的收集与标注,而这一过程成本高昂且耗时。
2.极低的通用性:小模型为专用模型,每个场景都需单独训练一个模型,导致每年的使用成本占初始采购成本10-15%。
市场迫切需求一种更通用、使用成本更低的技术手段。
而视觉大模型(基于Transformer结构)的出现,正是这一问题的解决方案。视觉大模型通过在海量工业数据集上的预训练,达到了“智能涌现”的效果,赋予了其跨领域的泛化能力。在应对具体场景时,仅需少量提示样本即可快速迁移到陌生领域。正是这种少样本跨域泛化特性,造就了视觉大模型的通用性与易用性:
1.使用成本降低90%:相比小模型,视觉大模型大幅减少了样本需求和模型的使用成本。
2.生产换型速度提升100倍:极大地缩短了模型适配现场的时间,为企业带来显著的效率提升。
视觉大模型的诞生,不仅解决了小模型时代的痛点,还为市场提供了一种真正意义上的通用生产力,推动了机器视觉产业迈向全新高度。
视觉检测大模型,应用于OT层面,非IT层生成大模型,其具有实时运行速度,该模型运行速度高达164FPS,能够完美满足生产线实时检测的高效需求,为工业智能化提供了强大的支持。
为实现大模型的便捷落地,领邦智能推出了视觉智能体产品。该产品内置视觉检测大模型与配套软件,同时集成电子控制器。现场仅需连接相机和光源,即可快速投入使用。此外,智能体还配备多路运动控制接口和执行机构,支持OK/NG品的分选和物料搬运操作。
视觉智能体可按ISA-95标准交付至L2层(SCADA)和L3层(MES、QMS、SPC),便于快速与用户IT系统集成。
视觉检测大模型及智能体主要应用于工业质检、装配正确性检测及过程监控三大领域,核心客户涵盖大型制造工厂、生产线供应商和视觉设备商。
关于5G+工业互联网大会
作为“5G+工业互联网”领域的首个国家级大会,中国5G+工业互联网大会已在武汉成功举办四届,成为5G和工业互联网融合创新的政策发布厅、实践展示区、交流合作台、产业推进器和发展风向标。
关于领邦智能
领邦智能通过公有云链接近千台设备,拥有海量工业数据,成功训练出视觉大模型,持续推动大模型的应用落地。作为国家级专精特新“小巨人”企业,领邦智能致力于引领行业创新发展。