AI在安防行业的探索和落地:大模型赋能下,如何塑造安防新纪元?
来源:安防行业网
|
作者:龙运智能
|
发布时间: 2023-12-08
|
751 次浏览
|
分享到:
随着人工智能技术的不断发展和应用,安防领域正成为AI技术商业化落地发展最快、市场容量最大的主赛道之一。在AI大模型的赋能下,安防行业将会迎来怎样的新突破和新发展呢?
随着人工智能技术的不断发展和应用,安防领域正成为AI技术商业化落地发展最快、市场容量最大的主赛道之一。在AI大模型的赋能下,安防行业将会迎来怎样的新突破和新发展呢?据深圳市安全防范行业协会等机构的调查统计显示,安防行业2023年产值约为9460亿元,增长幅度为4.9%。同时,相关报道显示,2022年中国安防设备市场达1878亿元,其中视频监控市场达808亿元,防盗报警市场达214亿元,出入口控制市场达528亿元,楼宇对讲、智能家居市场达328元。2023处于经济发展的复苏期,那么对于安防市场而言,在过去一年里有哪些明显的变化呢?其实安防市场大的变化主要有2个方面:一是传统的政府类项目市场进展缓慢,随着雪亮工程等大规模城市级项目建设进入尾声,政府端对公共安全的投入呈现放缓的态势,大部分企业开始向商业市场布局;二是生成式AI及大模型席卷各行各业,安防行业作为AI落地最佳场景,在过去的三年中却陷入了沉默期。ChatGPT的出现让大众领略到生成式AI的力量,令人振奋,这也宣告着大模型时代正式到来。对此,安防人也更多的思考——视频感知、图像感知与大模型结合,会有怎样的技术变革?安防、智慧物联碰上大模型,会产生怎样的火花?在安博会开场的前一天,10月24日,大华发布了星汉大模型。早在今年五月,宇视就发布了“梧桐”大模型。如今,大华的入局,将AI大模型这一池子水,搅动得更剧烈了。据悉,大华“星汉”大模型是以视觉解析为核心的多模态融合行业大模型,能够带来AI算法准确性和泛化性跃升,实现图文提示定义新功能,突破视觉认知能力,全场景自主解析,高效满足海量碎片化需求,将首先在城市治理和电力行业进行应用。值得注意的是,“星汉”大模型支持大小模型与算力协同,通过算法融合,实现大小模型协同部署,为用户构建好用、用得起的大模型系统。大华还专门成立未来通信研究院,专注进行视频数据智能化连接的底层研究,对“全连接”能力进行加强和提升。同为股份也特地开辟了一块AI大模型系统体验区,同时展出了同为开放训练解决方案,支持大模型少样本学习的能力,易于开发跨场景算法应用,助力视觉AI算法在更多细分行业落地,打通AI落地的最后一公里。据悉,同为自研的AI大模型系统属于百亿级视觉语言多模态大模型,可深度理解视频和自然语言,感知场景中更多目标种类、属性和关联态势,进一步提升安防系统的管理的范围、效率和智能化程度。据工作人员介绍,目前同为AI大模型尚未正式发布,此次在展区展出的AI大模型系统为首次展出,预计年底将正式发布全新的行业大模型,可深度加持、理解安防行业任务和数据,进一步赋能安防产业生态圈。记者走访了解到,天视通也正在着手自研行业大模型的工作,专注研发人/动物的精准识别和统计,以期借助智能算法动物识别技术帮助畜牧业实现高效的动物管理,自动记录动物种类、数量等信息,增强算法泛化能力,实现精准的养殖和数据分析。记者发现,算能也设置了一个互动体验区——AIGC绘画体验、AI公文写作等互动体验,全面展示了AI生成、AI校对、AI续写、AI灵感等智能能力,十分有趣。例如,在AI公文写作互动中,输入“工作报告”等两三个关键词标签,便可生成一篇文章,并且关键词越具体,输出的内容也越专业、具体。此外,还有针对法律行业的大模型-智能法务助理法小开——可根据输入内容,为咨询者提出相对专业、细化的法律依据与建议。还有,熵基展出的BioCV大语言模型也支持多语言表达与理解、持续绘画、逻辑推理等能力。并且基于7B模型进行场景微调,开发了基于大语言模型的医疗助手,实现了位置查询、在班医生查询和预约医生等功能。此外,360智慧生活展区的视觉云应用体验区也有生成式AI的展示成果——图文问答、开放目标检测......仍有多家企业展会上秀出大模型的“肌肉”。整体来看,越来越多的中大型企业已经开始注重自研行业大模型的能力。AI大模型,已经不再只是一个概念,它变成了一种能力的体现,开始成为真正有实力底蕴的安防、智慧物联厂商秀“肌肉”的舞台。AI大模型在渐进落地的过程中,将会有越来越多的玩家涌入,安防识别与分析能力将会有质的飞跃。以AIGC为例,其在语义理解、文本创作、逻辑推理等领域的卓越表现,以及自然语言对话的低门槛交互方式,让行业看到智能化升级又将迎来新的发展空间。对于特定行业的碎片化场景,用户其实并不需要通用大模型的全面能力,更需要行业大模型的精度和质量。在行业知识图谱的基础上,以沉淀的行业数据、专家经验以及工程实践能力予以配合,通用大模型演进下的行业垂直模型将拉开强人工智能场景化应用新序幕。众所周知,作为数字化和智能化应用的前沿领域,安防行业拥有极为丰富的感知设备和可观的数据资源,再加上广泛的应用场景,行业必将成为大模型率先落地的垂直领域之一。伴随着高性能、高稳定的大模型不断突破发展,更高通用性和工业化水平AI2.0将持续拓宽安防行业数字化、智能化的边界。一方面大模型、AGI等新一轮的AI技术变革将使得安防领域AI算法更加精准。另一方面通过多模态技术可以将图像、语音和文本等数据进行融合,实现多样化海量数据深度挖掘,并在此基础上进一步提取数据内容关联价值。例如在多种非结构性数据中提取相关的人、事、物、组织等关键要素,继而形成具有知识价值的图谱,不但提升了长尾AI需求落地的效率和效果,更有可能改变相关产品研发、项目运营等环节的交互方式。可以相信,伴随着AI大模型等技术在安防领域逐渐落地及场景突破,有望在行业内真正构建起事前预测预防、事中制止、事后监督的治理体系与机制,进而提高社会预测预警预防各类风险能力,增强社会公共安全防控的整体性、协同性、精准性,更能推而广之,探索安防在安全生产、应急防灾、生态建设与保护等领域的深度应用。AI大模型融入公共安全领域其背后的价值将不可估量。在诱人的发展前景外,技术的双刃剑效应在AI大模型上依然不容小觑。正如覃智泉主任所言,当前公安领域面临着AI大模型应用及安全方面诸多问题需要深入思考。在应用方面,哪些业务可以引入大模型?用哪些业务数据进行大模型训练?数以千亿计的数据进行训练必将带来高昂的费用支出,谁来承担?大模型在公安工作中落地应用,带来的法律跟责任问题该如何界定等等;在安全方面,如何保证训练数据安全,AI大模型带来的虚假信息、深度伪造信息等如何解决?这些已经成为阻挡AI大模型赋能公安应用较为现实的问题。在AI大模型应用部署上,华为技术有限公司科学家胡善勇也提出:由通用大模型向专业行业大模型演进,需要投入高昂的算力成本、数据成本、算法成本以及人力成本,这与狭窄行业应用对应的商业价值和商业收益不成正比,因此目前来看,面向行业大模型还难以形成正向的商业应用闭环,需要企业持续不断地试错与投入。安全问题是AI大模型另一较为凸显的话题,近段时间无论是AI“黑产”,还是深度伪造带来的涉诈犯罪风险正在积聚。在此次人工智能论坛上,美亚柏科AI研发中心总经理赵建强等相关专家系统地总结了AI大模型在数据安全方面面临的一些困境:一方面AI大模型存在算法、数据等安全风险。以算法风险为例,大模型无法抵抗提示注入、对抗样本等攻击,可靠性低。如受到攻击,用于大模型训练的一些个人隐私数据容易泄露,尤其是涉及到的个人身份信息。同时,它还存在歧视、伦理偏见等数据方面的问题。另一方面大模型、生成式AI(AIGC)技术存在被不法分子利用的风险,如通过深度伪造相关视频或图像信息进行诈骗,目前国内已经出现类似的案件。同时,生成式人工智能技术可能带来非常多的虚假信息,或者说加速虚假信息的生成和传播。除了以上两个方面,AI大模型或者生成式人工智能技术本身及应用过程中还会带来很多在伦理道德、法理、法律等方面的挑战,甚至可能影响整个社会稳定,危害到国家安全。据赛迪顾问统计显示,截至2023年7月,国内累计已经有130个大模型问世,再加上一些企业孵化的行业大模型,有人戏称目前国内已经进入“千模大战”。然而,这些大模型是否果真名副其实,能否称得上“大模型”,以及当前公布的大模型算法是否有缺陷、内容是否符合法律法规要求及政策监管,都不得而知。面对大模型、AIGC急速发展带来的一系列应用与安全问题,如何构建可信的AI大模型、实现对AIGC内容的规范管理已经成为行业及国家重点关注的内容。清华大学互联网司法研究院助理教授艾清遥表示,相较于智能辅助驾驶,目前对于AI大模型能力的评测,尤其是AIGC内容方面的检测还没有一个通用指标或通用范式。在安全问题受到高度重视的当下,AI大模型产业需要统筹发展与安全,特别是涉及公共安全领域的垂直应用大模型,亟需建立可信与规范化的评测标准体系。“变革是由问题倒逼而产生,又在不断解决问题中而深化。”AI通用大模型在向行业大模型持续精进的过程中,需要跨过应用适配性与安全规范化两道坎,这也是当前各个行业针对大模型发力的重点。“行业大模型落地部署,硬件非常简单,通过加大算力的部署即可实现。真正的挑战是软件技术以及对行业业务层面的深度理解。”胡善勇表示,行业大模型对公共安全治理将会是一场非常重大开创性变革,虽然在公安与司法领域,大模型商业化应用闭环还较难实现,但前期的战略预研至关重要,这不但需要国家及地方政府予以资源支持,还需要在统一引领下,通过产学研以及社会组织共同努力实现预研的持续推进,在为大模型行业化应用打下坚实基础的前提下,相信在未来三到五年公共安全行业大模型应用将会有成效彰显。自AI落地行业之日起,安全问题已经不是一个应用层面的问题,而是产业级问题。胡善勇特别强调,AI安全问题关键是源头,通过法律、法规前置化处理以达到治理非结构数据带来的深度伪造与虚假信息。赵建强也提出,针对AI大模型及生成式人工智能技术的安全治理需要从多个方面入手:一是要源头治理,国家发布的《生成式人工智能服务管理暂行办法》明确提出来在生成式人工智能技术研发过程中进行数据标注。相关部门也将制定相应的分类分级监管规则或者指引,加强对生成式人工智能的模型、算法、数据的安全评估和管控。二是要加强行业自律,无论是内容生产、应用还是服务,相关企业需要加强自律,需要对大模型从技术、内容等方面进行深度审核、管理、治理;行业组织则需加快相应产品评估方法和标准落地,以引导行业发展。三是通过技术的方式去支撑法律、规则和标准落地,实现对大模型产品的“质检”。目前人为因素已经没有办法监督和评价生成式人工智能所生成的内容,需要通过AI方式进行鉴别,以AI对抗AI,进而实现对大模型进行安全性评估,对内容数据进行相应的监督检查,实现最大限度发现可能存在的伪造、虚假信息。正如前段时间热映的《奥本海默》引发的热议,原子弹的研发对人类而言最终是利是弊,发人深省。也许当前社会正处于强人工智能的“奥本海默时刻”,面对快速迭代的AI大模型以及AIGC技术,AI技术“双刃剑”效应必然要求行业必须坚持发展与安全并重的态度,才能让新技术真正发挥更大价值。
(文章来源于:安防行业网,如有侵权请联系删除)