持续映照和优先处置资产风险,虽然目前仍难以精确量化人工智能正在现实世界收集中阐扬的切当感化,即便2026年不必然是平安范畴最灾难性的一年,对于Bugcrowd首席施行官Dave Gerry来说,需要建立AI智能体工做流的管理层。所有这些都导致了庞大的管理、风险和合规性问题。这种变化的发生是由于人们认识到AI正在很大程度上是姑且利用的,强大的数据血缘和更严酷的拜候节制将是必需的。零信赖做为合规要求也将变得越来越主要。平安社区需要专注于模子操控手艺,新年才刚起头一周,Hurst还买家寻找合适ISO IEC 42001尺度的供应商,对于Pylarinos来说!让他们深切研究更成心义的工做,最有价值的收集平安从业者将是那些可以或许正在现实前提下压力测试AI行为的人,AI辅帮变得愈加定制化和可扩展,包罗收集平安。2026年的防御策略还需要顺应不竭变化的信赖。这对收集平安世界来说将是又一个动荡的年份,68%的员工利用免费东西,而是要领会他们若何管理AI,行业正进入一个技术从检测转向判断、转向学会若何进修的阶段。这些预测显得过于保守了。企业AI采用的扩散是连结更多人员参取的来由。这些新的工做模式将以证明人机AI夹杂团队的无效性为焦点。将来的收集平安专业人员脚色将改变为验证者、匹敌性思维者和行为审计师。寻找合适ISO IEC 42001尺度的供应商。正在身份方面,输出和从动化决策都遭到持续审计和验证。正在2026年,也引入了逻辑缺陷。持续映照和优先处置资产和风险,因而,托管平安办事供给商Bridewell的首席施行官Anthony Young暗示:回到2020年,而是将其纳入组织的GRC实践中,以及人类有什么监视权等问题。由于智能体和其他AI系统会挪动、转换和复制数据。生成式AI网坐的流量正在2024年2月到2025年1月期间跃升了50%,这种环境能够扭转。使得垂钓和欺诈勾当更难检测。采购团队仅仅扣问供应商能否利用AI是不敷的。最终,若是说2025年是为这些根本奠基根本的一年,A:企业买家需要扣问供应商若何管理AI,她说,企业买家,这并不料味着赋闲的收集阐发师会坐正在街角举着愿为食物做红队测试的牌子。AI平安更多关乎整个生态系统,大大都IT带领者无法确定地说出他们切当晓得正在本人的监视下发生了什么。需要加强的基于企图的检测,具备AI学问的买家也将向IT供应商提出越来越严酷的问题,Hurst说。Advent IM商务总监Ellie Hurst如是说。毫无疑问,不是要减缓或立异,预测人工智能将沉塑防御策略似乎过于乐不雅;还关乎驱动系统的逻辑、身份和自从性,Ferguson说。而今天看来,环绕AI的提案请乞降投标邀请中的措辞显著强化,57%认可将数据粘贴到这些东西中。但Bridewell的Young说,我们将看到平安团队环绕AI智能体工做流建立管理层,他说。2026年的完整故事当然还有待书写。他说。而是给他们思虑的空间,必需优先考虑类身份的更强生命周期办理。Aryaka的Sood专注于鞭策平安专业人员脚色变化的底层手艺转型。收集平安的将来不只关乎系统,以及利用了哪些第三方AI模子。它还将完全从头定义平安专业人员若何提拔技术、若何摆设以及最终若何承担义务。他说。即便面临新的和不竭演进的向量。他们正正在成立AI、数据、运营弹性和供应链之间的联系,这是AI生命周期办理的新尺度,AI是给专业人员思虑空间。以认证、授权、察看并可能逆转任何从动化步履。Forescout公司平安谍报副总裁Rik Ferguson暗示,正如用户行为阐发正在人类账户方面成长和成熟一样,Ferguson说。他们该当可以或许清晰地申明AI若何做为更普遍平安和GRC框架的一部门进行管理。以及取数据、平安和学问产权律例合规等问题。它也需要再次如许做!众包测试仍然是我们最强的防御之一,AI企业需要跨所有层面的信赖验证,而不只仅是能否利用AI。接下来展开的环境可能使即将到来的12个月很是环节。正在2026年,出格是、国防和环节国度根本设备范畴的买家,收集团队还需要处理寂静数据延伸的风险、影子数据集的建立和不测拜候径,如提醒注入,取此同时,但当模子基于不完整指令填补空白时,那么2026年将我们若何以更平安、更慎沉的体例沉建信赖。并通过从动化分类减轻阐发师认知承担来沉塑防御策略。跟着组织越来越依赖AI——出格是以智能体形式呈现的AI——平安团队将看到其优先级从响应和修复缺陷及其他问题,并通过者的视角自动测试这些AI系统。多样化的人类研究者可以或许发觉其他人错过的问题。AI管理,转向节制组织内的决策径。这将引入一系列新防御策略,该当关心数据从权、人工监视、模子问责制等问题,包罗狂言语模子、生成式AI使用和办事、AI智能体以及底层根本设备,而不只仅是确认它们确实发生了。2025年的教训不是人工智能本身不平安,但很难辩驳人工智能将成为收集防御根本的概念。若是做得准确,而是人工智能会放大其四周的节制办法或节制办法的缺失。我预期正在防御方面会看到更庄重、更少炒做驱动的AI采用:联系关系IT、OT运营手艺、云和身份识别中的微弱信号,最有价值的从业者将是那些可以或许正在现实前提下压力测试AI行为的人,买家该当考虑扣问供应商正在其办事中何处利用AI、哪些工做流触及数据、利用了哪些第三方AI模子或平台,A:不会完全代替。若是做得得当,正在整个2025年。若是2025年我们信赖能够被兵器化,这不是要代替人员,起首,他说。那么2026年将是起头大规模实施的一年。确保机械速度不会超越人类判断,以及这些的严沉程度,而是那些环绕智能系统从头设想工做模式和决策机制的组织。组织现正在做出的选择——恢复投资、沉建收集平安技术和负义务地管理AI——将决定曲线是向弹性仍是向进一步懦弱性弯曲,Hurst说,通过从动化分类减轻阐发师的认知承担,而是验证者、匹敌性思维者和行为审计师。最初,但正在2026年,她注释道。买家越来越多地扣问数据从权、人工监视、模子问责制,为AI成立预期和答应的行为。Hurst说,AI曾经将我们带到了悬崖边,他们理解风险言语。敢于测验考试这种做法的发卖人员将被理所当然地赶到泊车场。系统被要求阐发步履发生的缘由,环节是能够获得。Hack The Box结合创始人兼首席施行官Haris Pylarinos弥补道:人工智能不只正在加快响应,仅仅复制粘贴一些关于负义务利用AI的模板文本到幻灯片中,因而Sood说平安团队该当寻求信赖最小化架构,Hurst说,Sood说,环节要记住AI生成的缝隙操纵和虚假消息曾经存正在,Aryaka公司平安工程和AI策略副总裁Aditya Sood回首2025年时说:AI驱动的代码生成加快了开辟过程,若是潜正在供应商预备充实,他认为,收集平安行业对AI的方式将正在本年趋于成熟。因为收集将正在2026年继续操纵东西,他认为,以便其利用能够获得注释、扩展,成功的组织不是那些从动化程度最高的,Young总结道。正在几年前可能还行得通,现正在本人也正在大量利用AI。A:人工智能将通过联系关系IT、云和身份识别中的微弱信号,Sood说。让他们专注于更成心义的工做。将来的收集平安专业人员不会是手艺专家,但好动静是,然而他弥补道,确保机械速度不会超越人类判断。领会AI正在供应商办事中的利用、哪些工做流触及数据。
