人工智能(AI)迅速改革了預防欺詐的景觀,為防禦和新作弊途徑創造了新的機會。
在所有行業中,AI都成為雙劍。一方面,它允許對欺詐的檢測更複雜,但另一方面,它具有利用控制,創建合成身份並發起過度強調攻擊的威脅。
在處理大量敏感交易和數字身份的領域,預防欺詐至關重要。例如,在金融服務中,這不僅僅是保護資本 – 遵守客戶的監管和信心受到威脅。
相似的 網絡壓力增加了電信和技術行業,例如SaaS,E -Commerce和Cloud Infratustructure,SIM交換,API濫用和合成用戶等威脅可能會引起嚴重的疾病。
根據2024年進行的一項調查,欺詐已經從風險轉變為基本業務挑戰(其中58%的關鍵決策)作為“嚴重威脅”。
SAS數據科學負責人。
合成威脅的興起
合成欺詐是指利用構造數據,AI或其處理的數字身份的攻擊。這些不是新概念,而是遺傳學的能力和可及性 AI工具大大減少了入口的障礙。
一個重要的威脅是創建合成身份,這些身份是用於開設帳戶,了解您的bras(KYC)控製或訪問服務的真實和虛擬信息的組合。
深度也用於在視頻通話或電子捕獲工作中變形高管。最近的一個例子涉及使用AI模仿CEO語音並授權欺詐轉移的攻擊者。這些策略在沒有高級實時驗證方法的情況下很難在快速變化的數字環境中檢測到。
數據筒倉僅加劇問題。在許多技術組織中,不同的部分基於斷開的工具或平台。一個組可以使用AI進行身份驗證,而另一組仍然基於繼承系統,而這些盲點很容易從使用AI的欺詐中利用。
哦,作為防守
雖然AI允許欺詐,但如果通過戰略性實施,它還提供了強大的防禦工具。最大可能的是,人工智能可以處理大腫瘤 實時數據檢測可疑標準並隨著威脅的發展而進行調整。但這取決於有效的整合,治理和監督。
一個常見的弱點在於零散的系統。防止欺詐的努力通常在合規,網絡空間和客戶安全方面在筒倉中工作。為了構建實際的耐用性,組織必須在所有部門中的AI策略保持一致。常見數據湖泊或安全的API可以允許對用戶行為的整體視圖進行集成模型。
通常與欺詐有關的合成數據也可以在防禦中發揮作用。組織可以使用匿名,現實的數據來模擬罕見的欺詐場景和火車模型,而不會削弱客戶的隱私。這種方法有助於測試不在歷史數據中的防御案例。
欺詐系統也應具有自適應。靜態規則和最新的模型很少無法跟上AI-IN實時欺詐,連續學習系統現在至關重要。許多公司採用行為生物特徵,AI正在觀察用戶如何與設備(例如打字率或鼠標移動)進行交互,以檢測異常,即使憑據顯得有效。
解釋是AI負責使用的另一個基石,有必要了解為什麼已將系統標記或排除在外。 AI(XAI)解釋的框架有助於透明決策,支持信心和遵守法規,確保AI不僅有效,而且還負責。
合作
AI加強欺詐不尊重組織限制,因此與行業相交 合作變得越來越重要。儘管金融服務等領域長期從ISAC等信息的交換中受益,但在更廣泛的技術生態系統中出現了類似的舉措。
雲提供商開始與客戶共享具有損害的憑據或協調惡意活動的標記。 SaaS SaaS和網絡安全還創建了合資企業和聯合研究計劃,以加速檢測並改善所有領域的響應時間。
儘管它具有力量,但AI並不是僅基於自動化缺失微妙或新欺詐技術的風險的銀球和生物體。有效的欺詐策略應包括定期的模型測試,腳本測試和紅色團隊練習(道德黑客在組織中進行模擬的網絡空間以測試網絡安全效率)。
人類分析師帶來了可以改善模型性能的領域的知識和判斷。與AI一起工作的培訓組是建立合成耐用性,將人類見解與機器的速度和規模相結合的關鍵。
耐用性是一個系統,而不是功能
隨著AI既轉換欺詐工具和預防方法,生物體都必須重新定義耐用性。這些不再是孤立的工具,而是創建關聯,自適應和解釋的防禦生態系統。
對於許多組織而言,這意味著將AI集成到所有業務部門,綜合數據的擁抱,解釋的優先級以及將持續改進整合到欺詐模型中。儘管金融服務可能已經在許多這樣的實踐中開創了開創性,但更廣泛的技術行業現在面臨著相同的欺詐行為水平,必須做出相應的反應。
在這個新時代,合成的彈性不是一個靜態的最終目標,而是不斷培養的能力。那些成就的人不僅會更有效地捍衛自己的業務,而且還將幫助通過AI確定安全數字信任的未來。
本文是Techradarpro的Insights Experts Insights Channel的一部分,我們在當今的技術行業中擁有最好,最聰明的頭腦。這裡表達的觀點是作者的觀點,不一定是Techradarpro或Future Plc的觀點。如果您有興趣貢獻,請在此處了解更多信息: https://www.techradar.com/news/submit-your-story-story-totor-to-techradar-pro