很難不同意Genai工具的生產力利潤,例如Chatgpt:一度花費數小時的工作。但是,在急於自動化的過程中,出現了根本的危險。 Genai成為拐杖。而且,如果他們不小心,它可能會悄悄地侵蝕我們團隊所需的技能,從長遠來看,我們的團隊需要保持有效,適應能力和競爭力。
因此,企業領袖必須鼓勵團體“在傾斜之前學習”。儘管這些工具可以增加我們的工作,但它們不應取代理解,當然也不必學習捷徑。使用Genai時,要採用的原則是:如果您自己做不到,則不應使用它來為您做。
AIMII的技術總監。
以軟件開發為例。 AI工具現在可以在命令中創建整個代碼塊。但是,除非開發人員了解代碼的意圖,否則他們真的沒有控制權。他們可能會失去邏輯上的錯誤,忽略幻覺或不認識到何時基於一個少於預期品牌的最佳順序。
性能和安全問題也可能會在裂縫中滑落。沒有這種理解,它本質上是副本,並希望獲得最好的。畢竟,他們仍然只是預測引擎 – 根據標準而不是真正的推理,創建正確的外觀。
這不僅是危險的 – 它是不可行的。在高度可調或關鍵的環境中,這可能會引入嚴重的操作和聲譽風險。簡而言之,如果無法確定驗證輸出,則不應開發出輸出。
早期職業人才的風險
對於早期職業專業人員而言,這個問題更令人震驚。例如,對於初中 開發人員Genai代表了一個誘人的快捷方式。畢竟,當AI工具可以立即解決該問題時,為什麼要解決問題?
因為比賽創造了技能。在理解基本要素之前,使用Genai就像在學習算術之前將學生交付給計算器。它可能會更快,但是如果他們不知道如何達到答案,他們將無法挑戰它,依靠它或確定何時錯誤。
微軟和哈佛大學的最新研究支持了這一點。它表明,Genai工具中的超載可以減少批判性思維和動力。人們成為被動思想家,而不是積極的解決問題。這不僅是一個學習問題 – 對於整個業務而言,這是一個長期的問題。
戰略盲點
這種過度的依賴也可能在組織層面創造一個危險的盲點。在短期內,團隊看起來可能更有生產力。但是實際上,它們可能會與使其耐用且適應能力的基本技能失去聯繫。
當AI模型更改或新的監管框架需要手動審查時會發生什麼?如果組織的選定工具已經離線,過時或引入未立即檢測到的不准確性怎麼辦?
Genai始終可用,準確且與您的需求保持一致的假設是脆弱的。如果這些群體沒有發展基本知識,則只會在事情出錯或必須做無法處理的事情時虐待他們。
鑑於數據科學,軟件工程和等領域的現有技能缺乏技能,這尤其令人震驚 網絡安全。如果Genai成為學習的替代品,那麼缺乏會加深並留下他們無法克服的關鍵角色的風險。
一條更聰明的道路
這並不意味著必須完全拒絕Genai。它提供的價值很明顯,但是現在該對如何將其集成到工作場所中更具戰略意義。
這是採用業務領導者的三個原則:
觸摸之前先學習: 鼓勵 員工在轉向Genai之前要對任務有所了解。創建一種學習的文化,在該文化中首先出現,並且只有在基本上建立速度時才能慶祝速度。
作曲家,不是自動飛行員:AI應該有幫助,而不是更換。在編碼,合規或決策等領域,Genai必須充當第二組手 – 而不是大腦。人類危機必須留在復雜職責的中心。
設置清晰的邊界:建立圍繞何時以及如何使用Genai的內部保護。確定人類專業知識必須保留在駕駛員座位上的任務。確保員工了解使用工具的潛力和局限性。
業務領導者有責任確保當今的生產力利潤不會成為明天的潛在差距。 Genai帶來了許多積極因素。但是,必須以適用於任何強大工具的相同的護理和關注來對待它。
使用它來加速,是的。絕對使用它來減少重複的任務。但是,您永遠不會讓它取代對真正的理解,實踐經驗和不斷學習的需求。這樣做將不僅有助於建立更好的性能 – 而且有助於更好的專業人士。
本文是Techradarpro的Insights Experts Insights Channel的一部分,我們在當今的技術行業中擁有最好,最聰明的頭腦。這裡表達的觀點是作者的觀點,不一定是Techradarpro或Future Plc的觀點。如果您有興趣貢獻,請在此處了解更多信息: https://www.techradar.com/news/submit-your-story-story-totor-to-techradar-pro