评分即命运?社会信用评分与福利资格挂钩的社会伦理审思
核心正文:
将社会信用评分(或行为数据评估)与社会福利资格、水平乃至获取优先级挂钩,是数字时代福利治理领域一个颇具争议的前沿构想与实践探索。支持者认为,利用大数据对公民的守法、履约、信用及社会行为进行精细化评分,并以此作为福利分配的依据,可以提升福利资源的配置效率,激励“好”行为、惩戒“坏”行为,促进社会诚信与责任。然而,这一做法触及了社会福利的哲学基础、社会公平的底线以及个人自由的边界,引发了深远的社会与伦理争议。
首先,它可能颠覆社会福利的权利基石,加剧社会排斥。现代福利国家的一个核心理念是,公民享有基本社会保障(如医疗、教育、最低生活保障)是一项基于公民身份或居民身份的社会权利,而非对“好行为”的奖赏。将福利资格与动态的行为评分挂钩,意味着这项权利变成了有条件、可撤销的“特权”。那些因贫困、教育水平低、数字鸿沟或其他结构性原因而导致评分较低(未必是因主观恶意)的弱势群体,可能被进一步剥夺或削减本应享有的基本保障,陷入“因贫评分低,因分低更贫”的恶性循环,加剧社会不平等与边缘化。
其次,它构成了对个人生活的全方位监控与行为规训,侵蚀个人自主与隐私。为了生成全面的“社会信用”评分,系统需要持续、广泛地收集个人的金融交易、出行记录、社交网络、消费习惯甚至言论等数据。将福利资格与此绑定,相当于用生存和发展的基本资源作为“筹码”,迫使个人在生活的方方面面遵循系统设定的“好公民”标准。这可能导致个体为获得或维持福利而进行自我审查,刻意迎合评分标准,抑制真实的个性表达与合理的行为多样性,形成一种“数字化全景监狱”效应。
再者,评分算法的“黑箱”与偏见问题带来严重的程序不公。社会信用评分依赖于复杂的算法模型,而这些模型的设计、数据的选择、权重的分配往往由技术专家和权力机构掌握,缺乏透明度和公众监督。算法可能无意中嵌入并放大历史中存在的社会偏见(如对特定地域、职业、教育背景群体的歧视)。当这种带有偏见且不透明的评分系统直接决定公民的福利权利时,就构成了对程序正义的根本违背。受害者将难以质疑和申诉一个自己无法理解、也无法挑战的“算法判决”。
此外,这种做法可能扭曲社会的道德基础,将复杂的公民德行简化为可计算的“分数”。友爱、互助、诚信、社区参与等社会价值,本应源于内在的道德自觉与社会教化。当它们与福利这一生存资源直接挂钩时,可能诱发功利主义的“表演性”行善或机械的合规行为,侵蚀道德行为的内在价值,并可能破坏基于信任与互助的社区纽带。
因此,尽管技术为福利治理的精准化提供了工具,但其应用必须坚守伦理底线。社会福利的分配,应首要保障公民的基本权利、促进社会公平与团结,而非成为行为规训的工具。任何将大数据评分与基本福利挂钩的尝试,都必须经过最严格的社会伦理审议、法律授权,并建立包括算法审计、异议申诉、人工复核在内的完备权利保障机制,防止技术滥用对公民权利与社会公平造成不可逆的伤害。
本文要点:
将社会信用评分与福利资格挂钩,可能将基于权利的社会保障变为有条件的特权,加剧对弱势群体的社会排斥,违背福利制度的初衷。
该做法以生存发展资源为筹码,可能导致对个人生活的全方位监控与行为规训,严重侵蚀个人自主、隐私和多样性。
依赖不透明、可能存在偏见的算法进行福利决策,违背程序正义,且可能扭曲社会道德的基础,将复杂的德行简化为功利计算。
技术应用于福利治理必须严格遵循伦理与法律边界,首要保障公民基本权利与社会公平,并建立有效的监督与救济机制。
拓展阅读:
Zuboff, S., The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, PublicAffairs, 2019.
Eubanks, V., Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, St. Martin's Press, 2018.
陈永伟,《算法伦理:人工智能的道德挑战与未来治理》,上海人民出版社,2021年。
