5 月 5 日,編劇們聚集在好萊塢的 Netflix 辦公室外。 雖然 Netflix 和迪士尼等一些公司拒絕排除用 AI 取代人類作家的可能性,但並非所有公司都對這種工具“感興趣”。 照片:法新社 |
Andy Chun 表示,ChatGPT 和其他合成人工智能 (AI) 技術的興起令人震驚。 最近幾個月,人工智能在一些標準化測試中的表現優於人類,通過了醫療和律師執照考試,並且生成的文本內容與類似的人類產品幾乎沒有區別。
AI 應用程序幾乎存在於每個業務領域,從客戶服務到運營和分析。 一些公司甚至考慮用人工智能取代人力資源。
根據高盛的一份報告,人工智能可以在全球範圍內消除 18% 的工作崗位,ChatGPT 預測該工具可以取代美國 480 萬個工作崗位。
但並非所有公司都準備好使用人工智能。 雖然有明顯的好處,例如提高效率、生產力和創新,但是否大規模採用 AI 將取決於需要首先解決的幾個大問題。
人工智能的一大缺陷是“想像”。 創建不准確或偽造信息的 AI 對消費者來說可能是災難性的,例如,AI 可能會提供錯誤的產品規格或創建不存在的折扣。
這種可能性是完全可能的,因為基於統計模型的 AI 操作可能會被相似或過時的數據所混淆。 此外,維護和更新基於 AI 的模型既昂貴又勞動密集,尤其是對於中小型企業而言。 即使有定期的高級培訓,通用人工智能係統也不太可能保證準確性和一致性。
另一個問題是像 ChatGPT 這樣的機器人通常不太擅長數學。 這對金融服務構成嚴重風險,不准確的結果,尤其是美元金額,是不可接受的。
正因為如此,公司已經意識到人工智能係統無法在短期內完全取代傳統的聊天機器人來回答客戶的問題。 仍然需要傳統的聊天機器人來提供有關產品、價格和財務計算的準確和具體信息。 它們還可以更好地與後端系統集成以訪問數據庫或為客戶提供服務。
數據隱私也是一個問題。 使用 AI 服務的公司可能會無意中與第三方共享敏感的業務數據,第三方可能會存儲、訪問或使用該數據用於培訓目的。 這可能會損害公司的戰略、銷售數據或知識產權。 即使數據不用於訓練目的,AI 服務提供商仍然可以將這些數據整合到平台模型的未來版本中。
人工智能的使用也引發了版權和知識產權方面的問題。 首先,人工智能係統可以為不同的用戶產生相似的結果。 其次,根據美國版權法,只有人類作者的作品才能獲得版權。 第三,使用人工智能時存在盜版和抄襲風險。 例如,Getty Images 起訴 Stability AI,指控該公司使用超過 1200 萬張 Getty 照片來訓練其係統。
人工智能係統還會引發倫理問題,因為它們會產生錯誤信息、有害內容或不當語言。 由於模型從各種來源學習,它們可能會繼承可能導致不公平或歧視性反應的偏見。
同樣在 3 月,出於隱私方面的考慮,意大利暫時禁止使用 ChatGPT。 該國聲稱 ChatGPT 會使未成年人接觸到不當內容。 德國正在考慮實施類似的禁令。
與此同時,歐洲立法者通過了人工智能法案,這是一套旨在保護人們免受人工智能潛在危害的法規,例如歧視和隱私侵犯。 根據該提案,實施人工智能係統的公司必須披露用於創建人工智能係統的受版權保護的材料。
2023年4月,國家互聯網信息辦公室提出人工智能服務辦法徵求意見稿。 這些可以說是迄今為止最嚴格的人工智能規則。 制定解決國家安全、數據保護、內容審核和算法透明度等問題的措施。
為了解決一些問題,矽谷芯片製造商 Nvidia 最近發布了 NeMo Guardrails,這是一種幫助 AI 系統生成準確一致輸出的新軟件。 NeMo Guardrails 充當用戶和 AI 模型之間的過濾器,過濾掉不良提示,防止不當的 AI 輸出。 它通過使用不同的 AI 模型來測試響應來幫助 AI 系統避免幻覺。
然而,儘管存在擔憂,人工智能在執行諸如編寫電子郵件、產生想法和設計演示文稿等業務任務時可以帶來顯著的生產力優勢。 公司不應錯過測試新工具並更多地了解其功能和局限性的機會。
企業只需要確保他們有明確的 AI 指南、員工指南和先進的安全工具來保護敏感數據。 他們還需要考慮人工智能對員工的影響,其中可能包括失業。
“熱情的培根迷。驕傲的流行文化忍者。謙遜的分析師。電視愛好者。終生的旅行迷。”