玛拉·博利斯:“与矛盾共存”——女性参与 AI 的现实策略

2025-11-25

导读

生成式 AI 正迅速进入日常与职场,但研究显示,女性在使用率与信任度上均低于男性,这一差距正悄然影响未来的职业机会与技术方向。本文作者指出,女性的审慎并非“风险规避”,而是对系统性偏见、隐私风险与错误输出的敏锐识别。文章指出,完全规避技术可能让女性在转型中失语,而盲目拥抱同样无法回应问题。因此,作者提出一条“与矛盾共存”的现实路径——既看到风险,也主动参与,并将风险意识转化为推动技术更稳健的领导力。从社区化学习到灵活培训,从可见榜样到更透明的治理机制,本文提醒我们:技术的未来关乎于谁能被真正纳入发展与决策过程。

微信图片_2025-12-24_105540_032.png

插图:iStock / Paper Trident

数年前,我在接受数字商业媒体Quartz 采访时曾提出一个观点:人们常将女性在财务上的态度误读为“风险规避”(risk-averse),而更准确的描述应是具有“风险意识”(risk aware)。女性本应因为审慎管理财务资源而被称赞,却常被贴上“过于谨慎”的标签。若能置身一个由女性定义话语的世界,这种勤勉尽责的特质会被视作优势,而非被误解为一种弱点。女性往往能洞察其未曾参与构建的体系中的缺陷,审慎权衡利弊后,据此采取相应的行动。

由ChatGPT、Claude、Gemini等大语言模型(large language models)驱动的生成式人工智能(generative AI)迅速兴起,其节奏之快、变化之多令人难以跟上。对许多女性而言,本能反应是怀疑。当我向同龄女性提到,自己正在与一些女性和对科技心存顾虑的人一起探索如何使用生成式 AI 时,常看到她们面露不悦,仿佛尝到了什么苦涩之物。随之而来的,是充满焦虑的言论,如“我厌恶它的存在”“大学文凭今后还有价值吗”等等。虽然偶尔也有人兴致勃勃地分享自己试过的新工具或新指令(prompt),但更多时候,我听到的评价是:生成式 AI 的输出千篇一律、缺乏人情味。人们还喜欢揪出那些明显的 AI“幻觉”,而在许多人看来,这些失误本身就足以证明这类工具不可信。

正如在财务系统中那样,女性往往能敏锐察觉生成式 AI 的系统性缺陷——这些恰恰指向了开发者在产品发布前未曾察觉或优先处理的问题,比如算法偏见、隐私风险与输出结果不可靠。当行业推出一些明显带有厌女倾向的产品(如 Grok 的虚拟形象聊天机器人 Ani),或曝出令人不安的政策(如 Facebook 关于儿童与非法内容处理的泄露条款),足以让许多用户瞬间陷入难以消化的情绪低落。对女性来说,这类内容不仅是种冒犯,更印证着开发团队性别多样性缺失的不良后果。当女性接触到这些自己几乎未曾参与构建的系统时,往往会感到疏离、不适,甚至体会到一种隐隐的被排斥感。

但关键问题在于:生成式 AI 如同电力和互联网一般,已逐渐融入日常的工作、生活场景,想要完全脱离几乎不可能。

面对眼花缭乱的技术热潮,我们不应全盘否定,而更需要一种“坚定地与矛盾共存”的心态。这意味着要同时持有两种看似对立的态度:一方面,利用生成式 AI 赋能自己与他人;另一方面,要求这些工具的开发者和监管者以极高标准确保透明、公平与安全。

无论我们是否接受,生成式 AI 已经在重塑工作的方式、职业晋升路径,以及下一代技术工具所依循的价值取向。这些工具确实能显著提升效率。美国圣路易斯联邦储备银行的一项研究显示,过去一周使用过生成式 AI 的受访者,大多节省了 2—4 小时,高频使用者节省的时间更为可观。讽刺的是,最感到身心不堪重负的人,却往往因过度忙碌而无暇学习那些本可减轻负担的工具。超过半数的职场人士认为,学习 AI 更像是一份“第二份工作”;而对许多女性而言,这甚至意味着“第三份工作”——因为她们在育儿和家务劳动中仍普遍付出较多时间。然而,如果女性在此时选择退出,她们将在最需要其经验的关键转型节点失去影响力。相反,如果女性积极参与并发声,她们对风险的敏锐感知将有助于推动这项技术变得更加稳健与负责。

研究数据揭示的真相

现有数据印证了我的观察。多项研究都指出,生成式 AI 在使用上存在显著的性别差异。尽管 OpenAI 和德勤(Deloitte)的最新研究显示,美国的使用率正趋于性别平衡,但这一趋势并不适用于所有年龄段,也不适用于所有国家。哈佛商学院(Harvard Business School)的一项元分析整合了 25 个国家的 18 项独立研究,共涵盖 143,008 名受访者,结果显示:女性使用生成式 AI 的可能性比男性低 22%。德勤的研究则进一步指出,AI 的使用率会随年龄增加而下降,而在 45 岁以上人群中,这一性别差距最为明显。

德勤与皮尤研究中心(Pew)的最新研究共同表明:女性普遍认为 AI 将在个人生活、职业发展及公共领域带来更多危害而非福祉;相比之下,男性往往更乐观、更有信心,并对自己驾驭技术的能力更加笃定。

详述如下:

●信任鸿沟: 纽约联邦储备银行的一项调查显示,当女性表示需要生成式 AI 培训时,她们并非仅仅在寻求技能,更是在表明自己意识到了这项技术缺乏透明度,并且不愿信任一个自己未能完全理解的系统。一项关于“性别与 AI 采纳”的系统性综述发现,女性普遍将“缺乏透明度”及“AI 工具运行机制不够清晰”视为建立信任的障碍。

●幻觉与质疑:与信任鸿沟密切相关的一个问题是,大语言模型倾向于生成所谓“幻觉”——即看似真实的虚构信息。对 AI 新手而言,这种情况令人极度不安:因为它们会打破人们在初期使用 AI 时好不容易建立起的那点掌控感,也会让人怀疑这项强大的技术究竟能否生成可靠的内容。一个典型案例:当我正在研究失实内容如何加剧女性对使用生成式 AI 的担忧时,ChatGPT竟虚构了一项看似高度相关的研究,并提供了一个根本不存在的超链接。

●受到更严苛评价的预期:女性普遍认为,在工作中使用生成式 AI 会让她们受到更苛刻的评价。而事实也印证了这一点。《哈佛商业评论》的一项研究发现,使用 AI 生成代码的女性工程师,其能力评价比男性同行低9%——尽管评审们看到的是完全相同的代码输出。

●偏见输出:生成式 AI 系统中带有偏见的训练数据所造成的影响早已超越个人层面,延伸至整个社会体系。德国的一项研究表明,对于背景资料完全相同的求职者,生成式 AI 聊天机器人给女性的薪资建议远低于男性。这种偏见模式会加剧边缘群体在寻求住房申请、信贷审批或求职等场景中的排斥性结果。

●隐私担忧:大多数主流 AI 系统和平台都要求用户主动选择“退出”,才能避免自己的数据被用于模型训练。即便是按常理本应受到严格保护的私人数据,也可能流入公共领域(今年早些时候 Meta AI 聊天工具的相关事件便是例证)。研究显示,在技术采纳过程中,女性对于 AI 如何处理个人数据的担忧普遍高于男性。部分原因在于,女性更容易遭遇利用技术手段实施的侵害或骚扰。

综上所述,女性对生成式 AI 的疑虑源于理性,而非恐慌。这并非风险规避,而是风险感知的体现。

为何资深女性的参与至关重要

上述现象在各年龄段女性中都存在。但在我看来,四十岁以上女性面临的风险尤为特殊。她们往往正处于职业生涯的高峰期——带领团队、运营机构、影响政策、制定战略方向。

现阶段,主动脱离生成式 AI 的代价尤为高昂。有关生产效率的研究也印证了这一风险。哈佛商学院一项题为《跨越崎岖技术前沿》(Navigating the Jagged Technological Frontier)的研究发现,使用 GPT-4 的资历较浅的顾问,其表现足以媲美,甚至超越未使用该工具的资深同事。换言之,拒绝使用生成式 AI, 可能会削弱资深从业者过去数十年积累的经验优势。

若职场资深女性未能建立使用 AI 工具的自信,那么董事会、高管层、公共议题讨论乃至AI 本身,都可能进一步向男性视角倾斜。

公平与组织层面的利害攸关之处

这一现象的影响体现在多个层面。对女性而言,AI 使用率低、上手慢,可能加剧性别薪资差距、减少晋升机会;若女性选择脱离 AI,生产效率提升的红利将更多集中于男性,进一步加剧职场不平等。

对生成式 AI 企业来说,若无法让女性在技术开发与实际部署中真正参与,不仅会持续面临偏见与有害输出的风险,也可能在不断趋严的监管环境下承受更高的合规压力,同时削弱企业在快速演进的市场中创新与竞争的能力。正如汽车企业会因产品安全问题而难以为继、制药公司会因产品危害患者而面临倒闭一样,生成式 AI 企业的系统若被全球半数人口普遍质疑,其行业正当性也将难以维系。

有预测显示,由于女性在文书类与常规的文职岗位中占比过高,她们的工作被生成式AI自动化替代的概率约为男性的三倍。我们必须警惕三个核心问题:谁正在获取新技能;谁在职场中保持(或丧失了)影响力;如果女性所在岗位受到不成比例的冲击,生成式 AI 将如何进一步扩大经济体系中原有的不平等。

我们能做的将风险意识转化为领导力

这些问题的解决之道,并不是要求女性忽视自己的合理质疑,或被动接受一个无法掌控的现实。真正的答案在于——女性及所有人都应以一种“坚定地与矛盾共存”的心态来面对技术的演进。我们需要创建一系列空间、项目与政策,使敏锐感知风险的过程成为常态,并让审慎采用技术的选择得到尊重。女性经济赋能领域数十年来积累的经验,正为我们提供一条切实可行的路径。

●基于社区的学习与同伴支持:许多低收入国家的“储蓄小组”之所以蓬勃发展,正源于其构建的信任圈。女性在此相互学习、共担风险,并在财务与情感上彼此支持。生成式 AI 的普及可借鉴这一模式:在小型、支持性的同伴小组中开展点对点学习。我创立“第一指令”(First Prompt)的初衷,正是受到这一力量的启发——当女性开始自主处理财务并把经验传递给其他女性时,她们会发展出强大的自我效能感。在我们的工作坊中,参与者一起尝试、一起学习,能够安全而熟练地“驾驭”这些工具,本身就是一种赋能。接触大语言模型的基础操作——如设定背景、给出清晰指令、反复迭代、从不同角度探索等,也让参与者获得更强的掌控感与自信心。

●灵活且可及的设计:移动支付平台之所以能成功增强女性的财务掌控力,部分原因在于其充分考虑了女性在时间和行动上的现实限制。“她与AI”(She is AI )及“女性定义AI”(Women Defining AI)等包容性学习社区,正致力于邀请女性参与生成式 AI 的转型浪潮。这两个组织运营的Slack频道充满鼓励与新连接,同时以低门槛费用提供按需获取的 AI 培训课程,让女性能够按个人时间灵活参与。

●AI作为个体创业的跳板:Accion、Agora Partnerships 等金融普惠项目之所以成功,在于将信贷渠道与财务素养和创业培训结合起来。同样,AI 的应用也可以与领导力、业务增长和效率提升等技能建设相结合,为女性开辟更加灵活的创收路径。设想一种新的可能性:打造一套“AI 教练”培训与认证体系,将其作为一种个体创业的方式,让女性既能指导他人上手与使用 AI,也能逐步规范自己的业务,并将服务更好地面向市场。

●榜样引领与领导力建设:在女性代表性不足的领域,榜样示范对吸引女性参与至关重要。金融顾问领域的女性领导力联盟(Women’s Leadership Alliance for Financial Advisors)便是典型案例,它将新晋顾问与资深导师群体相联结。在 AI 领域也是如此:让公众看到那些在商业、非营利与学术领域成功应用 AI 的女性榜样,能够激发更多人参与。今秋在波士顿发起的“女性应用 AI”(Women Applying AI)倡议汇集了近 40 位跨界创始成员,将 AI 学习打造成一场“女性与她们敬佩的同伴共同成长”的行动。

●通过提升透明度以构建信任:诸如Triodos Bank与Amalgamated Bank等金融机构之所以能够赢得消费者信任,部分原因在于它们公开的贷款与碳排放信息远超监管要求。生成式 AI 领域的企业若能提升数据隐私保护、增强系统透明度、积极应对算法偏见,将更容易赢得那些因信任顾虑而迟疑的用户群体。例如,OpenAI与Anthropic(AI安全与研究公司)近期合作发布了双方实验室对彼此模型的内部安全测试结果,既揭示了各系统的优势与不足,也公开了双方正在分别推进的风险修复措施。

●建立防范企业滥用AI的规则:我们需要通过强化监管,在系统性层面为 AI 用户提供保障。正如2008年金融危机后成立的消费者金融保护局(Consumer Financial Protection Bureau,CFPB)为金融市场补上了迟来的透明度、监管与消费者申诉机制,《AI公众权益法案》等提案也致力于通过系统化监测 AI 偏见来保护消费者。该法案已获得多家领先的数字权利组织和社会组织的支持。其内容包括:要求实施独立审计、算法影响力评估、透明度报告,并为受到自动化决策影响的个人提供人工申诉渠道,同时允许对未履行义务的企业启动法律问责。

上述策略共同构成了一个多维度的转型体系。当不同层面的行动形成合力时,AI 时代将拓展机遇而非加剧不平等。

重塑叙事

将女性刻板地视作“风险规避者”的叙事,曾在金融市场中造成误读,限制了女性获得信贷与资本的机会。而在生成式 AI 领域,女性的审慎态度反而提供了重要且有价值的信号,她们的视角能够指出技术可优化的方向。尽管不存在确保生成式 AI 公平应用的单一解法,但其他领域的经验表明,如果能在以下几个方向协同行动,就有可能推动进展:

●学习:以用户为中心,建立女性对使用生成式 AI 的信心。

●可及性:设计灵活包容的技能提升机会,充分考虑女性的时间约束情况。

●机遇:将生成式 AI 的能力转化为领导力与创收能力。

●问责要求生成式 AI 企业实现透明度与公平性。

●监管:建立保障机制,确保新技术服务于公共福祉。

在这个技术持续更迭的时代,“坚定地与矛盾共存”的心态是所有 AI 使用者的前行之道。而女性正具备在其中发挥引领作用的独特优势。

玛拉·博利斯是第一指令(First Prompt)的创始人,兼哈佛大学肯尼迪学院研究员。

(来源:《斯坦福社会创新评论》中文版)

返回列表