要点总结 #
随着人工智能(AI)技术的快速发展,社会对AI的态度变得复杂且多样化。阴谋论信念、控制点(Locus of Control, LOC)和可解释AI(XAI)的体验被认为是影响人们对AI接受度和恐惧感的关键因素。研究基于IMPACT框架,调查了这些因素在英国和阿拉伯样本中的表现。结果显示,女性在英国样本中表现出更高的AI恐惧感和较低的接受度,而阴谋论信念和外部控制点与AI恐惧感正相关。此外,XAI的可用性和重要性在提升AI接受度方面发挥了重要作用。
研究通过在线调查收集了来自英国和阿拉伯世界的各281名参与者的数据,并使用统计分析方法验证了假设。XAI的可用性被认为是影响AI接受度和恐惧感的最强预测因素。内部控制点和XAI的重要性也与AI接受度正相关,而阴谋论信念和外部控制点则与AI恐惧感正相关。研究还发现,阿拉伯参与者对AI的接受度显著高于英国参与者,这可能与文化差异有关。研究结果为AI设计者提供了重要启示,强调了透明度和个性化解释在提升用户信任和接受度中的关键作用。
关键要点 #
论文重要性 #
这项研究揭示了阴谋论信念、控制点和XAI体验如何影响人们对AI的态度,为AI设计者提供了重要的实践启示。 通过增强AI的透明度和解释性,设计者可以减少用户对AI的恐惧感,提升接受度。此外,研究强调了文化差异在AI接受度中的重要性,为跨文化AI设计提供了理论支持。未来的研究可以进一步探讨不同文化背景下AI解释的个性化需求,以促进全球范围内AI技术的广泛应用。
图表分析 #
研究参与者的人口统计特征 #
🔼 该表1展示了参与者在阿拉伯和英国样本中的人口统计特征的详细信息,为理解研究的参与者群体提供了基础。两个样本的性别分布相对均衡,英国样本中女性略多(55.16%),而阿拉伯样本中女性和男性比例几乎相等(50.18%和49.82%)。英国样本的平均年龄为34.92岁,阿拉伯样本的平均年龄为32.11岁,年龄范围都在18-60岁之间。在教育水平方面,两个样本之间存在显著差异:英国样本的教育背景更加多样化,包括从没有接受过正规教育到完成研究生学位的参与者;而阿拉伯样本则显示出更高比例的本科或研究生学历。就业状况方面,两个样本都以全职就业者为主,并且两个样本都有相近比例的学生,但英国样本在兼职就业方面略高。研究变量方面,阿拉伯参与者在人工智能接受度、内部控制点方面得分更高,在人工智能恐惧方面得分略低,对 XAI 的重要性评分更高,并且对 XAI 的现有程度认知也高于英国参与者,而英国样本的阴谋论倾向略高。这些人口统计学数据为后续的统计分析和结果解读提供了重要背景,有助于识别文化和人口因素如何影响对人工智能的态度。
更多图表分析
人口统计学特征 #
🔼 表1呈现了阿拉伯和英国样本参与者的人口统计特征。在英国样本中,共有281名参与者,其中男性占44.84%,女性占55.16%,年龄范围在18至60岁之间,平均年龄为34.92岁(标准差为12.50)。在阿拉伯样本中,同样有281名参与者,男性占49.82%,女性占50.18%,年龄范围在18至59岁之间,平均年龄为32.11岁(标准差为8.47)。
在教育程度上,英国样本中,无正规教育的占1.07%,小学教育占0.36%,中学教育占24.55%,职业或技术教育占19.93%,本科及以上学历占54.09%。阿拉伯样本中,中学教育占13.52%,职业或技术教育占4.27%,本科及以上学历占82.21%。
在就业方面,英国样本中,全职就业占55.16%,兼职就业占20.64%,自主经营占2.49%,失业占8.19%,学生占5.69%,退休占2.14%,家庭主妇占3.91%,其他占1.78%。阿拉伯样本中,全职就业占56.23%,兼职就业占12.81%,自主经营占6.05%,失业占7.47%,学生占8.18%,退休占1.07%,家庭主妇占7.83%,其他占0.36%。
此外,研究变量的平均值和标准差也列于表中。英国样本中,对人工智能的接受度(ATAI acceptance)平均值为10.50(标准差为4.20),对人工智能的恐惧(ATAI fear)平均值为15.77(标准差为6.50),阴谋论倾向平均值为4.98(标准差为2.09),解释性AI(XAI)的重要性平均值为4.47(标准差为1.11),对无XAI的满意度平均值为2.69(标准差为1.08),XAI可用性评估平均值为3.36(标准差为1.04),内部控制点平均值为3.01(标准差为0.92),外部控制点平均值为2.65(标准差为0.85)。阿拉伯样本中,对人工智能的接受度平均值为14.38(标准差为4.28),对人工智能的恐惧平均值为14.82(标准差为7.01),阴谋论倾向平均值为4.73(标准差为2.41),XAI的重要性平均值为4.98(标准差为1.03),对无XAI的满意度平均值为2.84(标准差为1.19),XAI可用性评估平均值为4.27(标准差为1.00),内部控制点平均值为4.53(标准差为0.55),外部控制点平均值为2.60(标准差为0.91)。
总体而言,该表详细描述了两个样本的人口统计学特征和研究变量,为后续研究分析提供了基础。

不同人群对AI的看法 #
🔼 该表格展示了英国和阿拉伯两个样本在对人工智能(AI)的态度、控制点(LOC)以及阴谋论信念方面的描述性统计数据,并分析了性别和文化差异。在英国样本中,女性对人工智能的恐惧程度高于男性,而男性对人工智能的接受程度更高。在阿拉伯样本中,男性表现出比女性更高的内在控制点。总体而言,阿拉伯参与者对人工智能的接受程度和内在控制点均高于英国参与者。此外,该表格还呈现了在总样本中,文化差异显著影响了对AI的接受程度和内在控制点。具体来说,阿拉伯参与者表现出更高的AI接受度(平均值14.38)和内在控制点(平均值4.53),与英国参与者(AI接受度平均值10.50,内在控制点平均值3.01)形成对比。在恐惧AI的程度方面,两个样本的平均值相近,分别为15.77(英国)和14.82(阿拉伯)。阴谋论信念的平均值在两个样本中也较为接近,分别为4.98和4.73。性别差异分析显示,在英国样本中,女性对AI的恐惧(平均值16.76)高于男性(平均值14.56),而男性对AI的接受度(平均值11.27)高于女性(平均值9.87)。但在阿拉伯样本中,性别差异在AI接受和恐惧方面不明显,但在内在控制点上,男性(平均值4.61)略高于女性(平均值4.44)。文化差异的统计分析进一步证实了阿拉伯样本在AI接受度(p<0.001, d=0.92)和内在控制点(p<0.001, r=0.83)方面显著高于英国样本。这些结果表明,文化背景和性别在理解人们对AI的态度时至关重要,对AI的接受度和恐惧感以及控制点的感知都受到文化和性别的显著影响,尤其是在不同的文化背景下,这些差异更为突出。

深度解读 #
XAI与AI接受度 #
可解释人工智能(XAI)的可用性在影响人们对AI的接受度和恐惧感方面起到了关键作用。 研究表明,XAI的透明度和解释能力能够显著增强用户对AI系统的信任,从而提升接受度。论文通过调查英国和阿拉伯地区的参与者,发现XAI的可用性评估是预测AI接受度的最强因素之一。具体而言,当用户能够理解AI系统的决策过程时,他们对AI的恐惧感降低,接受度提高。 这一发现与之前的研究一致,表明XAI不仅能够减少用户对AI的“黑箱”感知,还能增强用户对AI系统的控制感。然而,XAI的可用性在不同文化背景下存在差异,阿拉伯地区的参与者对XAI的重视程度较高,但对其可用性的感知较低,这可能与当地AI技术的普及程度有关。未来的研究应进一步探讨如何在不同文化背景下优化XAI的设计,以提升全球用户对AI的接受度。
阴谋论与AI恐惧 #
阴谋论信仰与对AI的恐惧感之间存在显著的正相关关系。 论文通过调查发现,那些倾向于相信阴谋论的个体更容易对AI产生负面情绪,认为AI可能被某种邪恶力量操控,进而威胁人类。这种恐惧感在英国样本中尤为明显,女性参与者表现出更高的AI恐惧感和较低的接受度。阴谋论信仰者往往对外部控制(外部控制点)有更强的依赖,认为AI系统的决策过程是不可控的,这进一步加剧了他们的恐惧感。 研究还指出,阴谋论信仰者通常对XAI的可用性持怀疑态度,认为现有的AI系统缺乏透明度。这一发现为AI开发者提供了重要的启示:通过增强AI系统的透明度和可解释性,可以有效减少阴谋论信仰者对AI的恐惧感,进而提升他们对AI的接受度。
控制点与AI态度 #
内部控制点(LOC)与AI接受度之间存在显著的正相关关系。 研究表明,那些具有较高内部控制点的个体更倾向于接受AI技术,因为他们相信自己能够掌控AI系统的决策过程。相反,外部控制点的个体则更容易对AI产生恐惧感,认为AI的决策过程是不可控的,且可能受到外部力量的操控。论文通过回归分析发现,内部控制点是预测AI接受度的重要因素之一,而外部控制点则与AI恐惧感密切相关。 这一发现为AI开发者提供了重要的启示:通过增强用户对AI系统的控制感,可以有效提升他们对AI的接受度。例如,提供清晰的解释和透明的决策过程,可以帮助用户更好地理解AI系统的工作原理,从而增强他们的控制感和信任感。
文化差异与AI态度 #
文化背景在影响人们对AI的态度方面起到了重要作用。 论文通过比较英国和阿拉伯地区的参与者,发现阿拉伯地区的参与者对AI的接受度显著高于英国参与者。这一差异可能与文化价值观有关,阿拉伯地区的集体主义文化使得个体更容易接受社会认可的AI技术,而英国等西方国家的个体主义文化则更强调自主性和独立性,导致他们对AI的接受度较低。此外,阿拉伯地区的参与者对XAI的重视程度较高,但对其可用性的感知较低,这可能与当地AI技术的普及程度有关。 这一发现为跨文化AI设计提供了重要的启示:未来的AI系统应根据不同文化背景的用户需求,提供个性化的解释和透明度,以提升全球用户对AI的接受度。
性别与AI态度 #
性别在影响人们对AI的态度方面存在显著差异。 论文通过调查发现,英国女性参与者对AI的恐惧感显著高于男性,且对AI的接受度较低。这一差异可能与性别角色和社会期望有关,女性往往对AI技术的潜在风险更为敏感,尤其是在涉及偏见和就业替代等问题时。研究还指出,男性对XAI的解释需求较高,而女性则更关注AI系统的透明度和安全性。 这一发现为AI开发者提供了重要的启示:未来的AI系统应考虑到性别差异,提供个性化的解释和透明度,以减少女性对AI的恐惧感,提升她们对AI的接受度。此外,进一步的研究应探讨如何通过教育和培训,增强女性对AI技术的信心和控制感。
完整论文 #













