英国信息专员办公室(ICO)的专家警告不要使用AI驱动的情感分析系统 ,因为担心其缺点至少在目前至少超过了好处。
可穿戴筛查工具用于健康监测或行为监测,例如身体位置,言语 ,眼睛和头部运动,作为示例,可以将需要收集的数据视为风险 。
ICO表示 ,可以个人识别包括潜意识行为在内的存储和处理这种类型的数据,这在公司如何使用此数据方面提出了某些挑战。
你可能喜欢
拥抱“情感炒作周期 ”允许企业负责任地采用AI
“事情变得有些恐怖” - 工作日负责AI
骗局的心理学:网络犯罪分子如何利用人类大脑
生物识别数据安全
ICO副专员斯蒂芬·邦纳(Stephen Bonner)说:“尽管存在机会,但风险目前更大。”“在ICO中 ,我们担心对数据的不正确分析可能会导致关于不准确并导致歧视的人的假设和判断 。 ”
然后,据邦纳说,那里的事实是,“他们可能无法工作 ,或者确实有任何工作”。学会理解个人情绪对人们来说可能非常困难。将这些信息凝结到计算机可以用来对其主题进行分类的数据 。阅读更多
>我们已经解决了他最好的混合工作技术
>并非每个人都喜欢Zoom的情感跟踪技能
> Google起诉未经同意收集生物识别数据
目前,ICO希望企业使用“功能齐全,负责和受科学支持”的技术。该组织还说 ,它的“尚未看到 ”满足数据保护要求的AI技术,并表达了对比例,公平性和透明度的进一步关注。
到2023年春季 ,ICO希望发布生物识别指南,以帮助组织了解安全的重要性,因为它认为这种技术在金融 ,健身,教育甚至沉浸式娱乐行业中变得越来越普遍 。
你是专业人士吗?订阅我们的新闻通讯
注册techradar Pro新闻通讯,以获取您的业务成功所需的所有首选 ,意见,功能和指导!取得成功!请与我联系我们的其他未来品牌的新闻,并代表我们值得信赖的合作伙伴或Sponsorsby提交您的信息,您同意您同意的条款和隐私政策 ,并年龄在16岁或超过16岁之间。
同时,邦纳(Bonner)表示,ICO将“继续仔细检查市场 ,确定寻求创建或部署这些技术的利益相关者,并解释增强数据隐私和合规性的重要性,同时鼓励信任和信心 ,同时信任和对这些系统的工作方式。”
正文
您的企业不使用情感分析软件有一个很好的理由
文章最后更新时间2025年05月25日,若文章内容或图片失效,请留言反馈!
-- 展开阅读全文 --