新聞中心
隨著ChatGPT的日益普及,大語(yǔ)言模型應(yīng)用的數(shù)據(jù)安全風(fēng)險(xiǎn)進(jìn)一步加劇。但這場(chǎng)挑戰(zhàn)同樣蘊(yùn)含著機(jī)遇,全球數(shù)據(jù)丟失防護(hù)(DLP)供應(yīng)商已經(jīng)瞄準(zhǔn)時(shí)機(jī),競(jìng)相在其平臺(tái)上添加對(duì)生成式AI用例的支持。

創(chuàng)新互聯(lián)主營(yíng)焦作網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司,主營(yíng)網(wǎng)站建設(shè)方案,成都App定制開發(fā),焦作h5微信小程序開發(fā)搭建,焦作網(wǎng)站營(yíng)銷推廣歡迎焦作等地區(qū)企業(yè)咨詢
據(jù)IDC今年8月發(fā)布的一份報(bào)告顯示,65%的公司已經(jīng)部署了生成式人工智能,19%的公司正在積極探索,13%的公司仍在考慮,只有3%的公司表示不打算使用生成式人工智能。
IDC表示,企業(yè)采用人工智能的最大障礙是擔(dān)心專有信息會(huì)泄露到生成式AI技術(shù)提供商擁有的大語(yǔ)言模型中。IEEE高級(jí)會(huì)員、Hyperproof的首席信息安全官Kayne McGladrey表示:
“各行各業(yè)的員工都在尋找創(chuàng)新的方式來(lái)更快地完成工作任務(wù)。然而,這可能會(huì)導(dǎo)致無(wú)意中共享機(jī)密或受監(jiān)管的信息。例如,如果醫(yī)生將個(gè)人健康信息輸入人工智能工具,以協(xié)助起草保險(xiǎn)信,他們可能會(huì)違反HIPAA法規(guī)?!?/p>
問題在于,許多公共AI平臺(tái)的訓(xùn)練數(shù)據(jù)來(lái)自與用戶的互動(dòng)。這意味著,如果用戶將公司機(jī)密上傳到人工智能上,人工智能就會(huì)知道這些秘密,并將這些信息泄露給下一個(gè)詢問這些秘密的人。不僅僅是公共人工智能存在這個(gè)問題,攝取敏感公司數(shù)據(jù)的內(nèi)部大型語(yǔ)言模型(LLM)也可能會(huì)將這些數(shù)據(jù)提供給不應(yīng)該看到它們的員工。
根據(jù)Netscope7月份發(fā)布的一份報(bào)告顯示,許多行業(yè)已經(jīng)開始使用DLP工具來(lái)幫助保護(hù)生成式AI。例如,在金融服務(wù)行業(yè)中,19%的組織使用DLP工具,在醫(yī)療保健中,這一數(shù)字為21%。在垂直技術(shù)領(lǐng)域,26%的公司正在使用DLP來(lái)降低ChatGPT和類似應(yīng)用程序的風(fēng)險(xiǎn)。
DLP供應(yīng)商的應(yīng)對(duì)策略
Skyhigh:跟蹤500多個(gè)AI應(yīng)用程序
Skyhigh Security將DLP工具作為其CASB產(chǎn)品的一部分,后者也是其SSE平臺(tái)的一部分。在過去一年里,該公司一直在迅速增加對(duì)生成式AI用例的支持。
該公司目前在其云注冊(cè)表中跟蹤了500多家不同的AI云服務(wù)提供商,這一數(shù)字自今年1月份以來(lái)上漲了130%。據(jù)介紹,這個(gè)云注冊(cè)表可以快速識(shí)別新的生成式AI應(yīng)用程序和每個(gè)應(yīng)用相應(yīng)的風(fēng)險(xiǎn)等級(jí)。
Skyhigh還與許多添加了生成式AI功能的企業(yè)應(yīng)用程序進(jìn)行了直接API集成,包括Box、Google、Microsoft、Salesforce、ServiceNow、Slack、Workday、Workplace和Zoom,從而能夠更好地洞察和控制數(shù)據(jù)流。
Zscaler:提供細(xì)粒度的預(yù)定義gen AI控制
截至今年5月,Zscaler已經(jīng)確定了數(shù)百個(gè)生成式AI工具和網(wǎng)站,并創(chuàng)建了一個(gè)AI應(yīng)用程序類別,使公司更容易阻止訪問,或向訪問網(wǎng)站的用戶發(fā)出警告,或啟用細(xì)粒度的DLP控制。
Zscaler全球CISO兼安全研究和運(yùn)營(yíng)主管Deepen Desai表示,最大的問題是用戶不僅僅會(huì)向AI發(fā)送文件,對(duì)于DLP供應(yīng)商來(lái)說(shuō),重要的是要檢測(cè)文本和表單中的敏感數(shù)據(jù),同時(shí)又不會(huì)產(chǎn)生太多的誤報(bào)。
此外,開發(fā)人員正在使用生成式AI來(lái)調(diào)試代碼和編寫單元測(cè)試用例。因此,DLP供應(yīng)商還要能夠檢測(cè)源代碼中的敏感信息(如AWS密鑰、敏感令牌、加密密鑰)并防止生成式AI工具學(xué)習(xí)這些敏感數(shù)據(jù)。
當(dāng)然,情境/上下文也很重要。ChatGPT的默認(rèn)配置方式是允許AI從用戶提交的信息中學(xué)習(xí)。在私有環(huán)境中運(yùn)行的ChatGPT是隔離的,不具有相同級(jí)別的風(fēng)險(xiǎn)。因此,在使用這些工具時(shí),了解采取行動(dòng)的情境至關(guān)重要。
CloudFlare:將DLP服務(wù)擴(kuò)展到gen AI
今年5月,Cloudflare擴(kuò)展了其SASE平臺(tái)Cloudflare One,添加了生成式AI的數(shù)據(jù)丟失防護(hù)功能,其中包括對(duì)社會(huì)安全號(hào)碼或信用卡號(hào)碼的簡(jiǎn)單檢查。該公司還為特定團(tuán)隊(duì)提供了定制掃描功能,并為特定個(gè)人提供精細(xì)規(guī)則。此外,該公司還可以幫助企業(yè)了解員工何時(shí)使用AI服務(wù)。
今年9月,該公司宣布為OpenAI、Bard和Github Copilot提供數(shù)據(jù)暴露可視性方案,并展示了一個(gè)案例研究,在此案例中,Applied Systems使用Cloudflare One來(lái)保護(hù)AI環(huán)境(包括ChatGPT)中的數(shù)據(jù)。
此外,它的AI網(wǎng)關(guān)支持OpenAI、HuggingFace、Replicate等模型提供商,并計(jì)劃在未來(lái)添加更多模型提供商。它位于AI應(yīng)用程序及其連接的第三方模型之間,在未來(lái),它還將增加DLP功能,例如,可以編輯包含API密鑰等敏感數(shù)據(jù)的請(qǐng)求,或刪除這些請(qǐng)求,或記錄并警告用戶。
Cyberhaven:自動(dòng)化數(shù)據(jù)防護(hù)方案
據(jù)Cyberhaven稱,截至今年3月,4%的工作人員已經(jīng)將敏感數(shù)據(jù)上傳到ChatGPT,平均而言,流向ChatGPT的數(shù)據(jù)中有11%是敏感數(shù)據(jù)。在2月份的一周內(nèi),平均每10萬(wàn)員工中發(fā)生了43起敏感項(xiàng)目文件泄露、75起受監(jiān)管個(gè)人數(shù)據(jù)泄露、70起受監(jiān)管醫(yī)療數(shù)據(jù)泄露、130起客戶數(shù)據(jù)泄露、119起源代碼泄露和150起機(jī)密文件泄露事件。
Cyberhaven表示,其DLP產(chǎn)品會(huì)自動(dòng)記錄輸入人工智能工具的數(shù)據(jù),以便企業(yè)能夠了解正在發(fā)生的情況,并幫助其制定安全策略來(lái)控制這些數(shù)據(jù)流。對(duì)于人工智能而言,DLP的一個(gè)特殊挑戰(zhàn)是,敏感數(shù)據(jù)通常從企業(yè)應(yīng)用程序或文檔中的打開窗口直接剪切并粘貼到ChatGPT等應(yīng)用程序中。尋找文件傳輸?shù)腄LP工具無(wú)法捕捉到這一點(diǎn)。
Cyberhaven允許企業(yè)自動(dòng)阻止這種敏感數(shù)據(jù)的剪切和粘貼,并提醒用戶特定操作被阻止的原因,然后將他們重定向到安全的替代方案,例如私有AI系統(tǒng),或者允許用戶提供合理解釋來(lái)解除阻止。
谷歌:通過敏感數(shù)據(jù)保護(hù)功能防止自定義模型使用敏感數(shù)據(jù)
谷歌的敏感數(shù)據(jù)保護(hù)(SDP)服務(wù)包括云數(shù)據(jù)丟失防護(hù)技術(shù),允許公司檢測(cè)敏感數(shù)據(jù)并防止其被用于訓(xùn)練生成式AI模型。該公司在一篇博文中指出:
“企業(yè)可以使用谷歌云的敏感數(shù)據(jù)保護(hù)在生成人工智能模型的整個(gè)生命周期(從訓(xùn)練到調(diào)整再到推理)中添加額外的數(shù)據(jù)保護(hù)層?!?/p>
例如,公司可能希望使用客戶服務(wù)對(duì)話記錄來(lái)訓(xùn)練其人工智能模型。谷歌的敏感數(shù)據(jù)保護(hù)工具將用數(shù)據(jù)類型的描述(例如“email_address”)來(lái)替換客戶的電子郵件地址,或者用生成的隨機(jī)數(shù)據(jù)來(lái)替換實(shí)際的客戶數(shù)據(jù)。
Code42:提供生成式AI培訓(xùn)模塊
今年9月,DLP供應(yīng)商Code42發(fā)布了內(nèi)部風(fēng)險(xiǎn)管理計(jì)劃Launchpad,其中包括專注于生成式AI的一系列培訓(xùn)模塊、工具和模板,以幫助客戶解決生成式AI的安全使用問題。該公司還向客戶提供ChatGPT和其他生成式AI工具的使用情況,檢測(cè)復(fù)制粘貼活動(dòng),并在必要時(shí)進(jìn)行阻止。
Fortra:在Digital Guardian中增加gen AI安全功能
Fortra已經(jīng)在其Digital GuardianDLP工具中添加了特定的gen AI相關(guān)功能,以幫助其客戶選擇管理員工對(duì)生成式AI的訪問方式——從完全阻止訪問到僅阻止輸入特定內(nèi)容,再到僅僅監(jiān)控員工發(fā)布到AI工具的流量和內(nèi)容。
企業(yè)為生成式AI部署DLP的方式各不相同。例如,教育機(jī)構(gòu)幾乎100%阻止訪問AI工具,媒體和娛樂業(yè)也接近100%。此外,制造業(yè)——特別是敏感行業(yè),例如軍事工業(yè),也接近100%。而服務(wù)業(yè)企業(yè)主要關(guān)注的不是阻止這些工具的使用,而是阻止敏感數(shù)據(jù)(例如客戶信息或公司產(chǎn)品源代碼等)被發(fā)布到這些工具上。
事實(shí)上,大多數(shù)公司甚至還沒有開始控制對(duì)生成式AI的訪問。如此一來(lái),組織面臨的最大挑戰(zhàn)就是,在明知員工想要使用它的情況下,如何確定正確的使用平衡。
DoControl:幫助阻止AI應(yīng)用程序,防止數(shù)據(jù)丟失
即使在同一家公司內(nèi),不同的AI工具也會(huì)帶來(lái)不同的風(fēng)險(xiǎn)。軟件即服務(wù)(SaaS)DLP公司DoControl表示:
“監(jiān)控用戶輸入文檔是否存在拼寫或語(yǔ)法問題的人工智能工具,對(duì)于營(yíng)銷人員來(lái)說(shuō)可能是可以接受的,但對(duì)于財(cái)務(wù)、人力資源或企業(yè)戰(zhàn)略人員來(lái)說(shuō)就不可接受了。”
DoControl可以評(píng)估特定AI工具所涉及的風(fēng)險(xiǎn),不僅了解工具本身,還了解用戶的角色和風(fēng)險(xiǎn)級(jí)別。如果工具風(fēng)險(xiǎn)太大,用戶可以立即獲得有關(guān)風(fēng)險(xiǎn)的教育,并指導(dǎo)他們使用經(jīng)批準(zhǔn)的替代方案。如果用戶認(rèn)為其請(qǐng)求的應(yīng)用程序存在合法的業(yè)務(wù)需求,DoControl可以自動(dòng)在企業(yè)工單系統(tǒng)中創(chuàng)建例外。
到目前為止,在DoControl的客戶中,100%的客戶安裝了某種形式的生成式AI,58%的客戶擁有5個(gè)或更多的AI應(yīng)用程序。此外,24%的客戶部署了具有廣泛數(shù)據(jù)權(quán)限的AI應(yīng)用程序,12%的客戶擁有高風(fēng)險(xiǎn)的AI影子應(yīng)用程序。
Palo Alto Networks:防范主流AI應(yīng)用
企業(yè)越來(lái)越關(guān)注基于AI的聊天機(jī)器人和助手,例如ChatGPT、Google Bard和Github Copilot。Palo Alto Networks數(shù)據(jù)安全解決方案使客戶能夠保護(hù)其敏感數(shù)據(jù)免遭數(shù)據(jù)泄露或意外暴露。例如,公司可以阻止用戶將敏感數(shù)據(jù)輸入這些應(yīng)用程序,在統(tǒng)一控制臺(tái)中查看標(biāo)記的數(shù)據(jù),或者完全限制特定應(yīng)用程序的使用。
生成式AI會(huì)帶來(lái)所有常見的數(shù)據(jù)安全問題,包括醫(yī)療數(shù)據(jù)、財(cái)務(wù)數(shù)據(jù)和公司機(jī)密的泄露。此外,軟件開發(fā)人員可能會(huì)上傳專有代碼來(lái)幫助查找和修復(fù)錯(cuò)誤,企業(yè)營(yíng)銷團(tuán)隊(duì)可能會(huì)尋求AI幫忙撰寫敏感的新聞稿和活動(dòng)文案。這給DLP產(chǎn)品帶來(lái)獨(dú)特的挑戰(zhàn),市場(chǎng)需要具有自然語(yǔ)言理解、上下文分析和動(dòng)態(tài)策略執(zhí)行的DLP解決方案。
Symantec:增加開箱即用的gen AI分類功能
賽門鐵克(Symantec,現(xiàn)已隸屬Broadcom)已在其DLP解決方案中添加了生成式AI支持,其形式是“開箱即用”,可以對(duì)整個(gè)生成式AI應(yīng)用程序進(jìn)行分類,并對(duì)它們進(jìn)行單獨(dú)或整體監(jiān)控。
ChatGPT是最受關(guān)注的領(lǐng)域,但企業(yè)也開始擔(dān)心谷歌的Bard和微軟的Copilot。進(jìn)一步的擔(dān)憂通常是特殊的新型專用生成式AI應(yīng)用以及集成到垂直應(yīng)用程序中的AI功能。此外,非官方、未經(jīng)批準(zhǔn)的AI應(yīng)用程序進(jìn)一步增加了客戶的數(shù)據(jù)丟失風(fēng)險(xiǎn)。
用戶可以向這些平臺(tái)上傳藥物配方、設(shè)計(jì)圖紙、專利申請(qǐng)、源代碼和其他類型的敏感信息,這些信息的格式通常是標(biāo)準(zhǔn)DLP無(wú)法捕捉的。賽門鐵克的應(yīng)對(duì)方法是使用光學(xué)字符識(shí)別(OCR)來(lái)分析潛在的敏感圖像。
Forcepoint:對(duì)gen AI應(yīng)用進(jìn)行分類,提供精細(xì)控制
為了使Forcepoint ONE SSE客戶更輕松地管理生成式AI數(shù)據(jù)風(fēng)險(xiǎn),F(xiàn)orcepoint允許IT部門按類別或單個(gè)應(yīng)用的名稱來(lái)管理誰(shuí)可以訪問生成式AI服務(wù)。Forcepoint的DLP產(chǎn)品可以對(duì)輸入AI工具的信息類型進(jìn)行精細(xì)控制。公司還可以對(duì)用戶是否可以復(fù)制和粘貼大塊文本或上傳文件設(shè)置限制。這確保有業(yè)務(wù)需要使用生成式AI工具的團(tuán)隊(duì)不會(huì)意外或惡意上傳敏感數(shù)據(jù)。
GTB Technologies:解決律師事務(wù)所面臨的ChatGPT挑戰(zhàn)
今年6月,兩名紐約律師及其律師事務(wù)所遭到罰款處罰,起因是他們提交了一份由ChatGPT撰寫的簡(jiǎn)報(bào),其中包括虛構(gòu)的案例引用。但是,律師事務(wù)所使用生成式AI的風(fēng)險(xiǎn)不僅限于“編造”,還存在向AI模型泄露敏感客戶信息的風(fēng)險(xiǎn)。
為了解決這一風(fēng)險(xiǎn),DLP供應(yīng)商GTB Technologies在8月份發(fā)布了專為律師事務(wù)所設(shè)計(jì)的生成式AI DLP解決方案。它不僅關(guān)乎ChatGPT,還涵蓋所有AI應(yīng)用,通過實(shí)時(shí)監(jiān)控防止敏感數(shù)據(jù)與AI程序共享,以保護(hù)律師與客戶的權(quán)益,幫助律師事務(wù)所在完全合規(guī)的情況下使用AI。
Next DLP:添加了針對(duì)主流AI平臺(tái)的策略模板
Next DLP于4月份將ChatGPT策略模板引入其Reveal平臺(tái),提供預(yù)配置的策略來(lái)培訓(xùn)員工正確使用ChatGPT,或阻止敏感信息泄露。9月份,NextDLP推出了其他幾個(gè)主要生成式AI平臺(tái)的策略模板,包括Hugging Face、Bard、Claude、Dall-E、Copy.AI、Rytr、Tome和Lumen5。
此外,Next DLP在7月份調(diào)查了數(shù)百家公司后發(fā)現(xiàn),97%的公司至少有一名員工使用ChatGPT,所有員工中使用ChatGPT的人數(shù)比例達(dá)到8%。由此可見,生成式AI已在企業(yè)內(nèi)部泛濫,CISO時(shí)候?yàn)檫@些工具部署可見性或保護(hù)措施了。
DLP的未來(lái)是生成式AI
生成式AI不僅僅是DLP技術(shù)的最新用例。如果使用得當(dāng),它也有可能徹底改變DLP的工作方式。Omdia新興技術(shù)首席分析師Rik Turner表示,傳統(tǒng)上,DLP是基于規(guī)則的,屬于靜態(tài)且勞動(dòng)密集型工具。但老派的DLP供應(yīng)商大多都已被收購(gòu),成為更大平臺(tái)的一部分,或者已經(jīng)發(fā)展為數(shù)據(jù)安全態(tài)勢(shì)管理方案,并使用AI來(lái)增強(qiáng)或取代舊的基于規(guī)則的方法?,F(xiàn)在,有了生成式AI,它們有機(jī)會(huì)走得更遠(yuǎn)。
IEEE成員、信息安全和合規(guī)專家Rebecca Herold表示,使用生成式AI的DLP工具本身必須確保它們不會(huì)保留發(fā)現(xiàn)的敏感數(shù)據(jù)。但到目前為止,還沒有看到任何供應(yīng)商成功地做到了這一點(diǎn)。所有的安全供應(yīng)商都表示,他們正在添加生成式AI功能,但早期的實(shí)現(xiàn)似乎都只是在用戶界面中添加聊天機(jī)器人。在未來(lái)6到12個(gè)月內(nèi),希望除了提供聊天機(jī)器人功能之外,還會(huì)有一些經(jīng)過驗(yàn)證的DLP工具,作用于人工智能的多個(gè)方面。
總之,數(shù)據(jù)安全沒有放之四海而皆準(zhǔn)的解決方案,任何這樣想的組織都是在自欺欺人。我們無(wú)法阻止員工使用公共ChatGPT。但為了盡可能阻止員工泄露數(shù)據(jù),企業(yè)可以加強(qiáng)管控力度,并提供適當(dāng)?shù)呐嘤?xùn)。
原文鏈接:https://www.csoonline.com/article/657362/data-loss-prevention-vendors-tackle-gen-ai-data-risks.html
網(wǎng)站標(biāo)題:GenAI數(shù)據(jù)風(fēng)險(xiǎn)加劇,數(shù)據(jù)丟失防護(hù)(DLP)供應(yīng)商紛紛出手!
文章轉(zhuǎn)載:http://m.fisionsoft.com.cn/article/cojehgg.html


咨詢
建站咨詢
