作为观察者的人类:论算法审计的反身性Humans as Observers: On the Reflexivity of Algorithm Auditing
束开荣,张昕怡
摘要(Abstract):
算法审计是人类主体对人与算法关系及其社会文化后果的规范性构建。基于自反性的概念视角,本研究认为,对算法审计的理解还应把作为观察者的人类也纳入分析,对观察者的分析意在揭示不同行动者在算法审计过程中的自我指涉,由此得以从人类-算法的整体关系生态来把握算法审计问题。研究发现,不同类型观察者的反身性会作用于算法审计的具体方式并构建起不同的算法现实。社科研究者所开展的算法审计旨在强调人类相对于复杂自动化机器的主体性和控制权确认,这种自反性延续着现代化以来社会与学术精英群体中关于技术失控的思想症候。相较而言,算法工程师的算法审计自反性指涉由技术理性与技术解决主义所形塑的观察者形象,在他们看来,作为“问题”的算法恰恰是算法系统得以完善的必经过程,即问题或错误本身具有生产性。而介于这两者之间的普通用户,则以常人视角形成了一种非正式的、非系统化的日常算法审计实践,作为观察者,他们的自反性指涉更为灵活、有韧性的人类主体意识。最后,本研究认为,人类自身作为观察者的算法审计实践所蕴含的反身性,塑造着我们介入并干预算法系统的有效方式及可能性。
关键词(KeyWords): 智能传播;算法审计;反身性;递归
基金项目(Foundation): 中国人民大学青年基金项目“平台化视野下深度媒介化的构建机制研究”(项目编号:2024300106);中国人民大学马克思主义新闻观项目“马克思主义中国化新闻舆论思想、历史与实践”(项目编号:MXG202406)的阶段性成果
作者(Author): 束开荣,张昕怡
参考文献(References):
- 仇筠茜、陈昌凤(2018):基于人工智能与算法新闻透明度的“黑箱”打开方式选择,《郑州大学学报(哲学社会科学版)》,第51卷第5期,84-88页。 段世昌(2024):从归纳算法到审计算法:直播电商创业者的非正式算法知识研究,《国际新闻界》,第46卷第4期,52-71页。 何晶、李瑛琦(2024):算法何以生成?中国互联网平台企业算法生产实证研究,《新闻与传播研究》,第31卷第2期,67-81页。 黄阳坤、俞雅芸(2023):镜像与花园之辩:算法歧视争议下的价值目标与伦理实践——基于工程师的访谈,《国际新闻界》,第45卷第10期,91-111页。 基特勒(2017):《留声机电影打字机》(邢春丽译)(原书Kittler,F.[1986].Grammophon Film Typewriter.Berlin:Verlag Brinkmann & Bose.) 凯瑟琳·海勒(2017):《我们何以成为后人类:文学、信息科学和控制论中的虚拟身体》(刘宇清译),北京:北京大学出版社。(原书Hayles,K.N.[1999].How we became posthuman:virtual bodies in cybernetics,literature,and informatics.Chicago:The University of Chicago Press.) 兰登·温纳(2014):《自主性技术:作为政治思想主题的失控技术》(杨海燕译),北京:北京大学出版社。(原书Winner,L.[1977].Autonomous technology:technics-out-of-control as a theme in political thought.Cambridge:the Massachusetts Institute of Technology.) 刘海龙、谢卓潇、束开荣(2021):网络化身体:病毒与补丁,《新闻大学》,第5期,40-55页。 刘海龙、连晓东(2023):新常人统治的来临:ChatGPT与传播研究,《新闻记者》,第6期,第11-20页。 尼古拉斯·鲁曼(2021):《社会系统:一个一般理论的大纲》(鲁贵显,汤志杰译),中国台湾:暖暖书屋。(原书Niklas Luhmann.[1987].Soziale Systeme Grundri?? einer allgemeinen Theorie.Frankfurt:Suhrkamp Verlag.) 诺伯特·维纳(2010):《人有人的用处——控制论与社会》(陈步译),北京:北京大学出版社。(原书Wiener,N.[1950].The human use of human beings:cybernetics and society.Boston:Houghton Mifflin.) 芮必峰、昂振(2021):传播研究中的身体视角——从认知语言学看具身传播,《现代传播(中国传媒大学学报)》,第43卷第4期,第33-39页。 师文、陈昌凤(2023):平台算法的“主流化”偏向与“个性化”特质研究——基于计算实验的算法审计,《新闻记者》,第11期,3-14页。 宋思茹、洪杰文(2025):数据适应与资本干预:黑箱中的“算法反馈”——基于平台算法工程师的访谈,《新闻记者》,第4期,18-34页。 孙玮,程博(2024):智能体:迈向媒介的个体化——基于媒介学视域的分析,《新闻记者》,第10期,第3-14页。 唐·伊德(2012):《技术与生活世界:从伊甸园到尘世》(韩连庆译),北京:北京大学出版社。(原书Ihde,D.[1990].Technology and the lifeworld:from garden to earth.Bloomington:Indiana University Press.) 维贝克 P.P.(2013):伴随技术:伦理转向之后的技术哲学,杨庆峰,译.《洛阳师范学院学报》,第32卷第4期,18-21页。(原书Verbeek,P.P.[2010].‘Accompanying Technology:Philosophy of Technology after the Ethical Turn’.In:Techné:Research in Philosophy and Technology 14:1,pp.49-54.) 徐笛(2019):算法实践中的多义与转义:以新闻推荐算法为例,《新闻大学》,第12期,39-49页。 许煜(2019):《论数码物的存在》(李婉楠译),上海:上海人民出版社。(原书Hui,Yuk.[2016].On the Existence of Digital Objects.Minneapolis:University of Minnesota Press.) 许煜(2020):《递归与偶然》(苏子滢译),上海:华东师范大学出版社。(原书Hui,Yuk.[2019].Recursivity and Contingency.London·New York:Rowman & Littlefield.) 严三九、袁帆(2019):局内的外人:新闻传播领域算法工程师的伦理责任考察,《现代传播(中国传媒大学学报)》,第41卷第9期,1-5,12页。 晏齐宏(2022):用户感知模式中的算法认识论,《现代传播(中国传媒大学学报)》,第44卷第4期,82-91页。 俞雅芸、黄阳坤、陈昌凤(2025):分布式道德何以失灵?工程师视角下的算法伦理责任困境,《新闻与写作》,第4期,82-95页。 袁帆、严三九(2020):模糊的算法伦理水平——基于传媒业269名算法工程师的实证研究,《新闻大学》,第5期,112-124页。 贠兆恒、李建清(2019):技术调节视角下的人工物道德功能探析,《自然辩证法研究》,第35卷第11期,22-28页。 张卫、王前(2013):道德可以被物化吗?——维贝克“道德物化”思想评介,《哲学动态》,第3期,70-75页。 张世超、毛湛文(2022):行动者网络中的推荐算法及其文化实践——基于算法工程师经验的考察,《学习与实践》,第6期,125-131页。 张萌、杨家明(2023):日常算法审计与计算基础设施修复——基于倒置视角的考察,《新闻大学》,第8期,88-100页。 Ananny,M.& Crawford,K.(2018).Seeing without knowing:Limitations of the transparency ideal and its application to algorithmic accountability.New Media & Society,20(3),973-989.doi:10.1177/1461444816676645. Bandy,J.(2021).Problematic machine behavior:A systematic literature review of algorithm audits.Proceedings of the ACM on Human-Computer Interaction,5(CSCW1),74.doi:10.1145/3449148. Benjamin,R.(2019).Race after technology:Abolitionist tools for the new Jim Code.Cambridge:Polity Press. Bishop,S.(2019).Managing visibility on YouTube through algorithmic gossip.New Media & Society,21(11-12),2589-2606.doi:10.1177/1461444819854731. Brown,S.,Davidovic,J.& Hasan,A.(2021).The algorithm audit:Scoring the algorithms that score us.Big Data & Society,8(1),1-8.2053951720983865.doi:10.1177/2053951720983865. Bucher,E.L.,Schou,P.K.& Waldkirch,M.(2021).Pacifying the algorithm-anticipatory compliance in the face of algorithmic management in the gig economy.Organization,28(1),44-67.doi:10.1177/1350508420961531. Bucher,T.(2017).The algorithmic imaginary:Exploring the ordinary affects of Facebook algorithms.Information,Communication & Society,20(1),30-44.doi:10.1080/1369118X.2016.1154086. Cao,G.H.,Wen,Z.& Liu,P.Y.(2025).Algorithmic gossiping:Sharing and non-sharing that evolve algorithmic imaginaries to folk theories.Information Research an International Electronic Journal,30(CoLIS),664-672.doi:10.47989/ir30CoLIS51922. DeVos,A.,Dhabalia,A.,Shen,H.,Holstein,K.& Eslami,M.(2022).Toward user-driven algorithm auditing:Investigating users' strategies for uncovering harmful algorithmic behavior.In Proceedings of the 2022 CHI Conference on Human Factors in Computing Systems.New Orleans,LA,USA:ACM.doi:10.1145/3491102.3517441. Di,D.(2023).Ethical ambiguity and complexity:Tech workers' perceptions of big data ethics in China and the US.Information,Communication & Society,26(5),957-973.doi:10.1080/1369118X.2023.2166357. Green,B.& Viljoen,S.(2020).Algorithmic realism:Expanding the boundaries of algorithmic thought.In Proceedings of the 2020 Conference on Fairness,Accountability,and Transparency.Barcelona,Spain:ACM.doi:10.1145/3351095.3372840. Hosny,R.& Nasef,M.A.(2025).Lexical algorithmic resistance:Tactics of deceiving Arabic content moderation algorithms on Facebook.Big Data & Society,12(2),1-17.doi:10.1177/20539517251318277. Huang,H.(2025).Weapons of the riders:Everyday algorithmic resistance of migrant food-delivery workers in China's gig economy.Journal of Contemporary China,2026,35(158),1450-1465.doi:10.1080/10670564.2024.2352155. Kazim,E.,Koshiyama,A.S.,Hilliard,A.& Polle,R.(2021).Systematizing audit in algorithmic recruitment.Journal of Intelligence,9(3),46.doi:10.3390/jintelligence9030046. Kellogg,K.C.,Valentine,M.A.& Christin,A.(2020).Algorithms at work:The new contested terrain of control.Academy of Management Annals,14(1),366-410.doi:10.5465/annals.2018.0174. Kitchin,R.(2017).Thinking critically about and researching algorithms.Information,Communication & Society,20(1),14-29.doi:10.1080/1369118X.2016.1154087. Klinger,U.& Svensson,J.(2018).The end of media logics?On algorithms and agency.New Media & Society,20(12),4653-4670.doi:10.1177/1461444818779750. Li,R.N.,Kingsley,S.,Fan,C.,Sinha,P.,Wai,N.,Lee,J.,Shen,H.,Eslami,M.& Hong,J.I.(2023).Participation and division of labor in user-driven algorithm audits:How do everyday users work together to surface algorithmic harms?.In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems.Hamburg,Germany:ACM.doi:10.1145/3544548.3582074. McDaid,E.& Free,C.(2025).Stories of resistance:The role of online forums in response to Uber's algorithmic management.Critical Perspectives on Accounting,101,102790.doi:10.1016/j.cpa.2025.102790. Metaxa,D.,Park,J.S.,Robertson,R.E.,Karahalios,K.,Wilson,C.,Hancock,J.& Sandvig,C.(2021).Auditing algorithms:Understanding algorithmic systems from the outside in.Foundations and Trends in Human-Computer Interaction,14(4),272-344.doi:10.1561/1100000083. Mittelstadt,B.D.(2016).Auditing for transparency in content personalization systems.International Journal of Communication,10,4991-5002. Nieswandt,K.(2024).Instrumental rationality in the social sciences.Philosophy of the Social Sciences,54(1),46-68.doi:10.1177/00483931231181930 Orr,W.& Davis,J.L.(2020).Attributions of ethical responsibility by Artificial Intelligence practitioners.Information,Communication & Society,23(5),719-735.doi:10.1080/1369118X.2020.1713842. Pasquale,F.(2010).Beyond innovation and competition:The need for qualified transparency in internet intermediaries.Northwestern University Law Review,104(1),105-174.doi:10.2139/ssrn.1686043. Ryan,M.,Christodoulou,E.,Antoniou,J.& Iordanou,K.(2024).An AI ethics ‘David and Goliath’:Value conflicts between large tech companies and their employees.AI & SOCIETY,39(2),557-572.doi:10.1007/s00146-022-01430-1. Sandvig,C.,Hamilton,K.,Karahalios,K.& Langbort,C.(2014).Auditing algorithms:Research methods for detecting discrimination on internet platforms.In Proceedings of the 64th Annual Meeting of the International Communication Association.Seattle,WA,USA. Seaver,N.(2017).Algorithms as culture:Some tactics for the ethnography of algorithmic systems.Big Data & Society,4(2),1-12.doi:10.1177/2053951717738104. Shen,H.,DeVos,A.,Eslami,M.& Holstein,K.(2021).Everyday algorithm auditing:Understanding the power of everyday users in surfacing harmful algorithmic behaviors.Proceedings of the ACM on Human-Computer Interaction,5(CSCW2),433.doi:10.1145/3479577. Stoldt,R.,Maragh-Lloyd,R.,Havens,T.,Ekdale,B.& High,A.C.(2023).Using racial discourse communities to audit personalization algorithms.Communication,Culture and Critique,16(3),158-165.doi:10.1093/ccc/tcad015. Ulloa,R.,Makhortykh,M.& Urman,A.(2024).Scaling up search engine audits:Practical insights for algorithm auditing.Journal of Information Science,50(2),404-419.doi:10.1177/0165551522110460. Vecchione,B.,Levy,K.& Barocas,S.(2021).Algorithmic auditing and social justice:Lessons from the history of audit studies.In Proceedings of the 1st ACM Conference on Equity and Access in Algorithms,Mechanisms,and Optimization.New York,USA:ACM.doi:10.1145/3465416.3483294. Von Foerster,H.(1979):Heinz von Foerster 控制论的控制论 Cybernetics of Cybernetics(樊昌林译),获取自https://mp.weixin.qq.com/s/mlvXWSkl epvQpZuxB8MfDg Ytre-Arne,B.& Moe,H.(2021).Folk theories of algorithms:Understanding digital irritation.Media,Culture & Society,43(5),807-824.doi:10.1177/0163443720972314.
- ① 这种表述人类、技术与世界关系的图式来自美国技术现象学研究者唐·伊德在《技术与生活世界:从伊甸园到尘世》中对人类与技术之间具身、诠释、它异以及背景四种关系模式的呈现,伊德以圆括号的方式“悬置”人类、技术与世界的要素,以此来凸显人类与技术之间的关系类型,譬如具身关系可以被图示为(人类-技术)-世界,在具身关系中技术要素被悬置起来,与人类融为一体,这种关系模式使得人类能够自然、熟悉地使用技术以直面世界。 ② “外部”是指研究者所处的位置,相对于算法工程师所处的技术系统内部。在控制论视角下,外部干预是对算法运作状况的反馈机制之一,是作为系统的一部分存在的。 ③ 自主性技术观念作为美国技术社会学者兰登·温纳(Langdon Winner)对法国技术哲学家雅克·埃吕尔(Jacques Ellul)“技术自主”思想的发展,鲜明地揭示了一种源于技术发展进而侵扰现代思想的沉重压力,这种思想压力的“症候之一是自主性技术观念的盛行,即相信技术以某种方式摆脱了控制,独立于人的指导而沿着自身进程前行”(温纳,1977/2014,p.10)。