當前位置: 主頁 > 新聞 >
 

為何不該盲目相信AI? 施耐德電機建議應檢視企業是否做到最高標準的道德與信任

本文作者:施耐德電機       點擊: 2023-06-21 12:01
前言:
2023年6月21日--現正處於AI發展史上的關鍵時期,人類以前所未有的規模和速度在各個領域應用AI技術。隨著AI使用日漸普及,社會上興起關於倫理、責任、信任的討論,企業也需在使用AI提升效率的同時做好風險管理。尤其現階段AI仍有諸多不完善之處,例如圖像辨識無法精確判別差異、以及招聘建議可能含有偏見等種種例子顯示人們並不能完全信任AI。能源管理及自動化領域的數位轉型領導者法商施耐德電機Schneider Electric建議企業在開發與使用AI時,應堅持遵守以下三項準則:

 
1. 符合法律與規範:如施耐德電機擁有完善的網路安全政策,符合ISO/IEC 29147和ISO/IEC 30111的標準,同時積極參與AI法律的制訂,並承諾完全遵守相關法規。
2. 道德與信任守則:施耐德電機以最高標準的道德與信任,對減少碳排與降低能耗做出承諾,而將AI導入解決方案時,也以同樣高標準的道德與信任作為原則。
3. 內部政策與流程:施耐德電機擁有數位風險與數據管理主管負責AI專案,並成立RAI工作小組(Responsible AI Workgroup)跟進歐洲與美國最新的AI法案,持續關注倫理議題。

此外,上下文情境、數據來源、解釋方式都可能導致AI產生的結果有偏誤或偏見,這讓AI信任議題變得極為複雜。以機器學習(ML,Machine Learning)來說,就算風險與其他數位技術類似,但由於系統更加複雜,風險的規模便更大、更難避免、更難追蹤、更難解釋。若想克服這些挑戰,建立可信任的AI,有以下兩點關鍵:

1. 專業知識和AI專家:AI應用將對人類產生深遠的影響,因此AI專家和數據科學家往往要擔任道德的守門員,他們檢測偏見、建立回饋循環(Feedback Loops)、檢驗運行異常以避免資料下毒攻擊(Data Poisoning)。在發展與應用AI時,企業必須選擇有價值的案例、挑選和清理數據、測試模型並控制其行為,這些都需要大量的專業知識與技術。若是出現異常,模型需要重新學習,以改善系統並避免使用特例數據而引發偏見。
2. 風險預測:目前多數的AI監管都以風險預測為基礎,從設計階段開始,就必須考量錯誤或異常數據、網路攻擊可能導致的問題,並預測潛在後果。藉此,AI專家能及早採取相關動作來降低風險,例如改善訓練AI模型的資料庫、檢測數據漂移(運行時的異常數據變化),盡可能做好防護措施。另外,若AI的信心水準低於一定值,團隊也務必確保人類參與關鍵決策。

人們不能盲目相信AI,企業也要選擇具有專業知識且可信任的AI供應商合作,確保服務符合最高標準的倫理道德、數據隱私、網路安全。施耐德電機提供關鍵設施的解決方案,包含國家電網、核電廠、醫院、汙水處理等,因此深知道德與信任的重要性,作為一家可信任的企業、持續開發可信任的AI解決方案,並以同樣負責任的方式導入AI,確保服務與產品兼具安全、高效、可靠、公正、隱私。

欲了解更多AI解決方案的資訊,請見施耐德電機官方網站。
 
關於法商施耐德電機 Schneider Electric
施耐德電機的宗旨是讓所有人都能善用能源與資源,為所有人提供進步與永續發展的橋樑。我們稱之為Life Is On。我們的使命是成為您實現永續發展及效率的數位合作夥伴。我們透過整合領先世界的製程及能源技術推動數位轉型。從端點到雲端連接,在生命週期內將產品、控制元件、軟體及服務進行雲連接,實現整合管理家居、樓宇、建築、資料中心、基礎設施及各產業。施耐德電機是一家擁有本土化優勢的國際企業。我們倡導開放標準和合作夥伴生態系統,積極實踐有意義、包容性和賦權的共同價值觀。
 
  可透過這些管道追蹤我們:            
關鍵字:#SchneiderElectric #LifeIsOn #AI #AI倫理 #施耐德電機
 

電子郵件:look@compotechasia.com

聯繫電話:886-2-27201789       分機請撥:11