大家好,今天美滋味百科(http://meizwei.cn)小编关注到一个比较有意思的话题,就是关于AI模型绘制不出白人的问题,于是小编就整理了2个相关介绍AI模型绘制不出白人的解答,让我们一起看看吧。
黑人又被算法标记成“灵长类动物”,算法偏见究竟来源于哪
这种标示是严谨的,科学的。是符合事实的。这是一位多次获得诺贝尔奖的美国科学家多年大量取证分析研究获得的结果。是在科学届得到广泛认可的研究成果。可惜被美帝极左政治投机分子打压,不能在国际社会得到认可。但严谨地科学届这个结果不不争的事实。
白人把自己的平均智商定位为100,他们想别人的平均智商会更低,结果尤太人平均值为108,而东亚人的平均值也是108,(有说是105的)。能达到100的是欧洲,北美。东南亚,南亚,西亚,南美,北非只有80。黑人只有67。最低的是大洋洲土著棕色人种,比黑人还低。别看有黑人做科学类节目,实际上黑人从不出科学家,哲学家,军事家,思想家,而他们拳击,田径,短跑,长跑,足球,蓝球运动十分厉害。人工智能把黑人认定为动物有点过分了,毕竟黑人和其他人种没有生殖隔离,是明确的人类。
当AI出错了人类该如何应对
虽然政府和私营企业正在快速部署AI系统,但公众却缺少在这些系统出现故障时追究其责任的工具。这是AI Now最新发布的一份报告的结论之一。AI Now是一家面向微软、谷歌等科技公司的研究机构,同时它隶属于纽约大学。
AI Now在报告中审视了AI和算法系统的社会挑战,它将问题聚焦于研究人员所称的“问责缺口”。对此,他们提出了十项建议,包括呼吁政府对面部识别进行监管以及对AI产品制定“广告真实法”,让企业不能简单地利用该技术的声誉来销售其服务。
现在许多大型科技公司都开始发现自己正处于AI的淘金热中,于是它们大举进入从招聘到医疗保健等多个市场并出售自己的服务。但是,正如AI Now的联合创始人、谷歌Open Research Group负责人Meredith Whittaker所说的那样,这些公司许多关于利益和效用的主张并没有得到公开的科学证据支持。Whittaker举了IBM沃森系统的例子,据了解,该系统在斯隆凯特林癌症中心进行实验诊断时给出了“不安全且不正确的治疗建议”。对此,Whittaker表示:“他们(IBM)的营销部门对近乎神奇的特性所做的断言从未得到过同行评论研究的证实。”
AI Now最新报告的作者们指出,这一事故只是涉及AI和算法系统的一系列“连锁丑闻”的其中一件,另外还有Facebook协助促成了缅甸的种族灭绝、谷歌Maven项目对美国军方制造无人机AI工具的帮助以及剑桥分析公司数据丑闻等等。
在所有这些案例中,既出现了来自公众的强烈抗议也有来自硅谷最具价值的公司内部的不同意见。这一年,谷歌员工因五角大楼的合同辞职、微软员工向该公司施压要求其停止与移民和海关执法局的合作以及谷歌、Uber、eBay和Airbnb为抗议涉及性骚扰而展开的罢工运动。
Whittaker指出,这些抗议活动得到了劳工联盟和像AI Now等这样的研究机构的支持,这已经成为了一股意想不到、令人欣慰的公众问责力量。
但报告的目的很清楚,那就是公众需要的更多。当涉及到政府采用自动决策系统(ADS)时对公民正义的威胁尤为明显。报告的作者们指出,通常情况AI系统被引入这些领域则是为了降低成本和提高效率,然而结果往往是系统作出了说不通或无法上诉的决定。
Whittaker和另外一位AI Now联合创始人、微软研究员Kate Crawford指出,将ADS整合到政府服务中已经超过了他们审计这些系统的能力范围。不过他们表示可以采取一些具体的步骤来解决这一问题,比如要求向政府出售服务的技术供应商放弃贸易保密保护从而让研究人员可以更好地去检查它们的算法。
另外他们还提到了另外一个需要立即立即采取行动的领域--面部识别和情感识别。现在全球已经有多个国家的警察开始使用前者。例如为奥兰多和华盛顿县警方部署的亚马逊Rekognition系统,尽管测试显示该软件在不同种族中的表现不同,但在一项用Rekognition识别国会议员的测试中白人议员的错误率只有5%而非白人议员的错误率却有39%。在情感识别方面,这家公司声称他们的技术可以通过扫描一个人的面部来读取其性格甚至意图。对此,AI Now的看法是企业们经常都在兜售伪科学。
尽管面临不少的挑战,但Whittaker和Crawford表示,2018年的情况已经表明,当AI问责和偏见问题被曝光时,技术员工、立法者和公众愿意采取行动而不再是默许。
到此,以上就是美滋味百科小编对于AI模型绘制不出白人的问题就介绍到这了,希望介绍关于AI模型绘制不出白人的2点解答对大家有用。
还没有评论,来说两句吧...