PPESA跨域講座 人工盟友與對手:對話式代理在政治審議中的角色
日期 :
2026-05-05
單位 :
社科院
【社科院訊】
面對人工智慧技術快速發展及其對民主社會的深刻影響,公共審議的形式與內涵正出現嶄新變化。社會科學學院人文領袖榮譽學分學程(PPESA)於4月30日舉行跨域對談講座,特別邀請香港中文大學新聞與傳播學院陳萱庭老師,以「人工盟友與對手:對話式代理在政治審議中的角色」為題,分享其對AI介入政治審議的最新研究與觀察。講座由PPESA召集人、政治系陳建綱老師主持,並由公共行政學系蕭乃沂老師跨域對談,帶領師生探討對話式代理在政治審議中的角色與限制,以及其對民主討論、參與品質與制度運作可能帶來的影響。
陳萱庭老師首先從審議民主在數位環境中的實務困境談起,他指出線上公共討論常面臨政治極化、不文明言論以及討論品質不一等問題。在相關研究中,不文明言論通常被區分為毒性(toxic)、攻擊性(offensive)與仇恨性(hate speech)三類,並可透過詞彙資料庫與機器學習方法進行辨識與分析。接著,陳老師進一步說明人工智慧在審議過程中的可能角色,認為AI可作為協助整理與彙集大量資料與資訊的工具,提升資訊處理效率,並影響參與者接觸與吸收不同觀點的方式。然而,AI的運作仍受到社會與政治脈絡的影響,例如,討論的議題類型、討論者的身分認同是否被觸動,都可能在不同情境下呈現不同結果。陳老師亦介紹「Habermas機器」的相關研究。該研究透過大型語言模型協助整合參與者對政治議題的意見,生成多種可能的共識表述,並透過參與者回饋進行比較與修正。此類AI輔助機制主要應用於資訊整合與文本整理,有助於提升討論內容的清晰度與邏輯性,但其缺點是犧牲了民主互動中的意見摩擦與情感表達,這些都是AI難以輕易優化的特性。此外,當AI進一步介入共識形成過程時,仍會涉及人類參與角色如內群體與外群體的界定,公眾是否信任AI,以及AI是否為民主價值而非效率所主導等問題。
蕭乃沂老師則從公共行政與制度設計角度回應,指出AI技術雖有助於提升資訊處理效率與輔助公共討論,但其導入仍需納入制度層面的考量,包括民主程序中的參與設計與相關治理安排,以及在實務應用中可能面臨的各種害關係人的角色。他並說明,政策議題的領域特質如財經、社會福利、核廢料安置或國安等議題的性質差異甚大,AI能夠在各類議題的審議中發揮效果,例如將艱澀的技術報告轉譯為「在地語言」等,但同時也仰賴公共行政、政治與傳播等跨領域的整合協作方可發揮綜效。
在講座的最後,主持人陳建綱老師也分享了自己的看法。他指出,關於AI與民主的相關議題仍具有高度複雜性,在現實社會中,道德與倫理規範本身即呈現多重且不完全一致的狀態,規範性理論因此仍具有重要意義。同時,社會對AI的期待往往涉及價值判準,例如避免歧視並符合性別、膚色與階級等公平性原則,但此類期待與現實之間仍存在張力。在民主理論方面,陳老師提到,審議可被理解為對程序型民主與代議民主的延伸與深化,使民主理解不僅止於投票或權利分配,更涉及參與政治過程中的實質互動與議題討論。審議民主強調透過對話形成對公共議題的理解,但在當代政治極化加劇的情境下,理想對話情境面臨更複雜的現實挑戰。
面對人工智慧技術快速發展及其對民主社會的深刻影響,公共審議的形式與內涵正出現嶄新變化。社會科學學院人文領袖榮譽學分學程(PPESA)於4月30日舉行跨域對談講座,特別邀請香港中文大學新聞與傳播學院陳萱庭老師,以「人工盟友與對手:對話式代理在政治審議中的角色」為題,分享其對AI介入政治審議的最新研究與觀察。講座由PPESA召集人、政治系陳建綱老師主持,並由公共行政學系蕭乃沂老師跨域對談,帶領師生探討對話式代理在政治審議中的角色與限制,以及其對民主討論、參與品質與制度運作可能帶來的影響。
陳萱庭老師首先從審議民主在數位環境中的實務困境談起,他指出線上公共討論常面臨政治極化、不文明言論以及討論品質不一等問題。在相關研究中,不文明言論通常被區分為毒性(toxic)、攻擊性(offensive)與仇恨性(hate speech)三類,並可透過詞彙資料庫與機器學習方法進行辨識與分析。接著,陳老師進一步說明人工智慧在審議過程中的可能角色,認為AI可作為協助整理與彙集大量資料與資訊的工具,提升資訊處理效率,並影響參與者接觸與吸收不同觀點的方式。然而,AI的運作仍受到社會與政治脈絡的影響,例如,討論的議題類型、討論者的身分認同是否被觸動,都可能在不同情境下呈現不同結果。陳老師亦介紹「Habermas機器」的相關研究。該研究透過大型語言模型協助整合參與者對政治議題的意見,生成多種可能的共識表述,並透過參與者回饋進行比較與修正。此類AI輔助機制主要應用於資訊整合與文本整理,有助於提升討論內容的清晰度與邏輯性,但其缺點是犧牲了民主互動中的意見摩擦與情感表達,這些都是AI難以輕易優化的特性。此外,當AI進一步介入共識形成過程時,仍會涉及人類參與角色如內群體與外群體的界定,公眾是否信任AI,以及AI是否為民主價值而非效率所主導等問題。
蕭乃沂老師則從公共行政與制度設計角度回應,指出AI技術雖有助於提升資訊處理效率與輔助公共討論,但其導入仍需納入制度層面的考量,包括民主程序中的參與設計與相關治理安排,以及在實務應用中可能面臨的各種害關係人的角色。他並說明,政策議題的領域特質如財經、社會福利、核廢料安置或國安等議題的性質差異甚大,AI能夠在各類議題的審議中發揮效果,例如將艱澀的技術報告轉譯為「在地語言」等,但同時也仰賴公共行政、政治與傳播等跨領域的整合協作方可發揮綜效。
在講座的最後,主持人陳建綱老師也分享了自己的看法。他指出,關於AI與民主的相關議題仍具有高度複雜性,在現實社會中,道德與倫理規範本身即呈現多重且不完全一致的狀態,規範性理論因此仍具有重要意義。同時,社會對AI的期待往往涉及價值判準,例如避免歧視並符合性別、膚色與階級等公平性原則,但此類期待與現實之間仍存在張力。在民主理論方面,陳老師提到,審議可被理解為對程序型民主與代議民主的延伸與深化,使民主理解不僅止於投票或權利分配,更涉及參與政治過程中的實質互動與議題討論。審議民主強調透過對話形成對公共議題的理解,但在當代政治極化加劇的情境下,理想對話情境面臨更複雜的現實挑戰。