众赢彩票

返回聯盟首頁 | 共産黨員網

您當前所在位置: 首頁 > 要言要論

評論:給智能機器嵌入“道德”算法

來源:中國文明網   發布時間:2018-09-11

   人工智能的應用,可能是影響深遠的社會倫理試驗。應通過算法給智能機器嵌入人類的價值觀和規範,讓它們具有和人類一樣的倫理道德

  前不久,包括特斯拉首席執行官馬斯克在內的多位全球人工智能頂尖專家簽署承諾書,呼籲不要開發“人工智能自主武器”。這已經不是業界第一次警告人工智能的潛在風險了。盡管當前處理單項任務、完成人類指令的“弱人工智能”自主性還很低,人們卻不能因此忽視新技術應用的潛在隱患。

  高效、聰明的人工智能並不完美。比如,人工智能存在算法缺陷。這種缺陷往往源于機器學習過程的不可解釋和不可理解,它的判斷有時就像在一個黑箱中完成,缺少透明性。無人駕駛汽車決定向左或右轉時,人們並不完全清楚它做出轉向的過程。除了傳感器故障,人們甚至無法准確找到問題原因,這就給有針對性地調整系統、判定責任帶來了障礙。正因爲如此,不久前生效的歐盟《通用數據保護條例》專門規定,人工智能公司必須讓人來審查某些算法決策。

  不僅有近憂,更有遠慮。放眼未來,人工智能的應用正在模糊虛擬世界和物理世界的界限,可能重塑人類的生存環境和認知形態,並由此衍生出一系列棘手的倫理、法律和安全難題。與曆史上其他技術創新相比,人工智能的倫理法律等問題受到如此大的關注,一個重要原因在于它在理念上有望實現可計算的感知、認知和行爲,從而在功能上模擬人的智能和行動,進而使得機器具有了一種准人格或擬主體的特性。人類現有的法律規範、概念框架及知識儲備,能否應對人工智能發展引發的新問題,是人們不得不正視的挑戰。

  針對人工智能應用的潛在風險,國際社會在標准設計、倫理道德等方面提出了一系列試圖控制智能機器系統的方案,逐漸形成一個共識原則:通過算法給智能機器嵌入人類的價值觀和規範,以此讓它們具有和人類一樣的同情心、責任心、羞恥感等倫理道德。人們希望,人工智能的算法遵循“善法”,在完成人類難以完成的任務同時,吸取人類道德規範“善”的一面,從而達到控制機器風險的目的。畢竟,任何算法都只是實現目的的工具或手段,“善”的結果才是人類的追求目標。

  實際上,通過編寫代碼和算法來控制機器的設想並不新鮮。70多年前,美國科幻作家阿西莫夫提出“機器人三定律”,構想了通過內置的“機器倫理調節器”,設定機器人不得危害人類的原則。而今,計算機專家、倫理學家、社會學家、心理學家等正在共同努力,走在實踐這一設想的路上。

  人類對人工智能發展的遠慮或許來得早了點,但未雨綢缪體現的正是人類的智慧和洞見,我們不能等到人工智能深度介入人類生活後才思考如何與之相處的問題。與機器相處的和諧度,應是人類開發利用人工智能的重要標尺。畢竟,人工智能的應用,不僅僅是一場科技創新,也可能是影響深遠的社會倫理試驗。

  “人工智能的短期影响由控制它的人决定,而长期影响则取决于人工智能是否完全为人所控制。”这是知名物理学家霍金给人类留下的警示。我们不必被人工智能的风险所吓倒,但在享受人工智能福利的同时,也需要划好伦理道德、法律规则等红线。 (喻思南)