一起長

前陣子看到報導,被譽為「AI 教父」、「深度學習之父」的 Geoffrey Hinton,接受《紐約時報》採訪時宣布,4月時已離開 Google,以便能公開自由地談論:對人工智慧抱有倫理顧慮及風險。 同類快速同步成長? 有關倫理顧慮及風險,網路已有諸多討論(預防壞人利用它?)但這篇報導特別讓自己注意的,是Hinton 關於AI 聊天機器人(AI Chatbot)之所以『比人類更聰明』的說明: 「 它們可以『與自己的同類』即時交流學習。就像一萬個人一起學習,當『其中一個人』學到了新知識,『其他人』也可以『同步』獲得『相同』的知識,這使得 AI 聊天機器人能夠獨立地學習,並即時分享知識,進而不斷提升自己的能力。 」 人無力招架之正義 以前,對於類似觀點,想到的多半是 網路科技主動餵食,強化同溫層效應而放大彼此「不同觀點間的矛盾」 ,這部分當然值得關注,但近來又多了些想法。 社會上對人造成更大的傷害(如集體霸凌、以暴制暴、冤獄形成等),不盡然在於「矛盾」造成的「衝突」,反倒與「從眾效應」有關,尤其出自主流媒體以「合理化」的論述、備受尊崇(信賴)者隨意的一句話,主導出來的「主流正義」,易使人不假思索地接受。 聚光燈下的同理心 「 受害者不免講錯或記錯,那麼恐怖的事情發生了,怎麼可能記下所有細節?但被告卻不同,他們必須記住所有細節,否則就是說謊。 …… 人不可能完全沒有同理心,就像我們不可能沒有憤怒、羞恥或仇恨的情緒。但有時同理心就像是聚光燈,光束範圍十分有限,只照得到特定對象,很容易造成偏誤。 …… 每個參與審判的人都沒錯,但同時他們可能都錯了。沒錯的部分是指大家都沒惡意,而錯的部分是指大家都太正義魔人了,於先入為主的懷疑下,不斷地尋找支持自己論調的說詞,進而忽視了其他矛盾的部分。 」 ~《無罪的罪人》(陳昭如,2019) 根植善以除惡務盡? 換言之,社會上常透過倡議宣導或爭取權益來「保護弱勢」,此儘管重要,但其一旦取得「更大優勢」時,很容易變本加厲做出比「讓自己唾棄」的一方更激進的行為──想藉此滌除過去遭受惡的記憶。 那麼,在維護正義的過程中,要如何避免陷溺惡的極端? 以前會認為「在心中根植善念」便能排除惡,誠如「撒種的比喻」( 瑪13:19-...