尽管生成AI的偏见是一种众所周知的现象,但仍然令人惊讶的是 ,有时会出土的偏见。TechCrunch最近使用Meta&rsquo的AI Chatbot进行了一项测试,该机器人于2024年4月推出了包括印度在内的十几个国家,发现了一个奇怪而令人不安的趋势 。
当使用及时的“印度男人”生成图像时 ,绝大多数结果表明,男人戴着头巾。尽管许多印度男子确实戴着头巾(主要是如果他们练习锡克教徒),但根据2011年的人口普查 ,印度的首都德里的锡克教徒的人口约为3.4%,而Generative AI图像结果则提供了三到四分之三的男性。
不幸的是,这不是第一次陷入与种族和其他敏感主题有关的争议中 ,这也不是最糟糕的例子 。
你可能喜欢
幻觉在chatgpt中下降,但这并不是我们AI问题的终结
我要求Google Pixel 9a做一个成功的人的形象,结果令人沮丧
在民主化AI时代的透明度 ,偏见和人类当务之急
兔子洞走多远?
2023年8月,Google&rsquo的SGE和Bard AI(后者现在称为Gemini)被裤子陷入困境,认为“福利 ”。种族灭绝,奴隶制 ,法西斯主义等。它还列出了希特勒,斯大林和墨索里尼的“最伟大”领导人,希特勒还列出了“最有效的领导者” 。
那年晚些时候 ,2023年12月下半年,有多次涉及AI的事件,其中最糟糕的事件包括斯坦福大学的研究人员在流行的LAION-5B图像数据集中找到CSAM(虐待儿童图像) ,许多LLMS都可以训练。该研究在该数据集中发现了3,000多个已知或怀疑的CSAM图像。稳定的扩散制造商稳定性AI(使用该设置)声称其过滤了任何有害图像 。但是如何确定为真实—这些图像很容易被整合到更良性的搜索中。或&&&&&’
在那里,AI也被用于面部识别的危险,包括执法。无数的研究已经证明 ,尽管是否发生过任何不法行为,但在种族和种族以最高速度逮捕的种族和种族方面存在明显和绝对的偏见 。将其与AI受到人类训练的偏见相结合,您拥有的技术可能会导致更多的虚假和不公正的逮捕。这是Microsoft不希望警察部队使用其Azure AI的地步。
AI如何迅速占领技术领域 ,这是令人不安的,以及在足够最终摆脱这些问题之前保持了多少障碍。但是,人们可能会说,由于AI在没有适当过滤内容的情况下可以访问的任何数据集的AI培训 ,因此首先仅出现这些问题 。如果我们要解决AI的巨大偏见,我们需要开始正确审查其数据集;不仅对于受版权保护的来源,而且对于积极的有害材料 ,可以很好地毒害信息。
您可能还喜欢
苹果在其大型iPad Eventmy jaw上发表的5个微妙的AI公告在我看了一位世界上最艰难的物理游戏中的AI大师时,我的下巴就碰到了地板。
正文
生成的AI偏见可能比我们想象的要差得多。这是修复它的需要
文章最后更新时间2025年05月20日,若文章内容或图片失效,请留言反馈!
-- 展开阅读全文 --