论坛风格切换切换到宽版
发帖 回复
返回列表  提醒:不能用迅雷等P2P下载,否则下载失败标(二级)的板块,需二级才能下载,没二级不要购买,下载不了
  • 1831阅读
  • 5回复

[IT/数码]AI会变成危险分子,是机器学习算法扭曲? [复制链接]

上一主题 下一主题
在线shuszhao
 

性别:
帅哥
发帖
18060
金币
36486
提示:会员销售的附件,下载积分 = 版块积分 + 销售积分       只看楼主 倒序阅读 使用道具 0楼 发表于: 2019-07-24
在大数据时代,隐私法正迅速成为任何数字安全对话的主要元素。对于那些业务建立在消费者数据之上的公司,消费者的信任正在发展成为其业务模式的重要组成部分。相比之下,人工智能的“公平性”还处于20年前隐私讨论的处境。它还没有上升到许多人的意识层面,至少目前还没有。
% NA9{<I  
工程界的许多人都认为“公平”这个话题是模糊的而且令人不快。在他们看来,这与他们在技术开发和软硬件设计方面的工作无关。是这样吗? %r%Mlj:#  
几十年前,我曾作为美国出版物EE Times的外派记者在欧洲工作。当我不经意地表示对美国商业惯例的反感,认为这是对隐私的侵犯时,一些行业分析师告诉我:“在美国,消费者愿意用他们的私人数据来获取免费的东西。”至于美国的隐私保护,他们说,“很久以前火车就离开了站台。” 现在提出来已经太晚了。 2ORNi,_I  
是这样吗? 75"f2;  
自欧盟于一年前推出其通用数据保护法规(GDPR)以来,遵守GDPR的压力已扩展到美国的数据平台公司,这些公司的覆盖范围实际是全球性的。此外,即使在美国,加利福尼亚州去年也推出了加州消费者隐私法案(CCPA),该法案旨在增强对州居民的隐私权和消费者权利进行保护。这项规定被一些人视为是比GDPR更强大的保护政策,该法将于明年1月生效。 :km61  
公众对隐私的重视正在美国迅速发酵。 u frW\X  
美国的消费者或许姗姗来迟,但他们正在醒悟他们放弃隐私所付出的代价。将个人数据留在Facebook和谷歌这样的大型技术平台公司手中,而这些公司可能会或可能不会做合乎道德的事情;美国人发现,当他们的个人数据被黑客入侵、窃取、买卖甚至被可疑群体用来影响选举结果时,他们几乎没有任何追索权。 tyXuG<  
在大数据时代,隐私法正迅速成为任何数字安全对话的主要元素。对于那些业务建立在消费者数据之上的公司,消费者的信任正在发展成为其业务模式的重要组成部分。 ryW'Z{+r'  
相比之下,人工智能的“公平性”还处于20年前隐私讨论的处境。它还没有上升到许多人的意识层面,至少目前还没有。 8/i!' 0r\  
我意识到在工程界,许多人认为“公平”这个话题是模糊的而且令人不快。在他们看来,这与他们在技术开发和软硬件设计方面的工作无关。 s2'yY(u/  
是这样吗? P7nc7a  
一些读者认为,EE Times特别项目中所讨论的AI公平是“社会工程”。 -8:&>~4`  
许多此类评论暗示工程师们是被要求去操纵技术(或游戏算法或数据集),为了“政治正确性”而改变机器学习的结果,而“政治正确性”这个术语和“公平”一样有着相同的含义。 KIui(n#/  
事实远非如此。 0B@SN)<kH  
y.#")IAF  
被AI解雇或被AI杀死 ,0*&OXt  
cC=[Saatsf  
6x h:/j3  
真正的问题是“歧视”,这里暗指那些可能会扭曲机器学习结果的数据集的歧视。而这种歧视通过训练算法的优化策略又被进一步放大。 S M0~fAtE  
想想那些不完整的数据集,比如,它忽略了那些坐轮椅的人,忽略了那些穿着绿色荧光夹克的建筑工人们。基于这些数据集被训练的人工智能算法可能会杀死建筑工人,就好比玩保龄球游戏和使得坐轮椅比骑单轮脚踏车更危险。 a`&f  
在这种情况下,人工智能的不准确性最终可能会搭上人们的性命。显然,人工智能的机器决策对那些穿绿色荧光夹克和坐轮椅的人来说是“不公平的”。 {QcLu"?c  
市场对AI趋之若鹜,因为每个企业都在寻找自动化其部分业务的方法。在追求自动化的过程中,在整个决策领域,有意或无意地,我们开始屈服于机器。 AI所涉及的工作包括招聘、信用评分、客户服务甚至驾驶。 cik!GA  
或许,要了解 AI 的不公平,你需要把自己想象成是机器决策触发的坏消息的承受者。 K`iv c N"  
如果某个 AI 算法算出某个年龄段的员工工作是多余的,那么这些不幸的工人有权质问AI为什么是他被解聘。他可能还想知道他的雇主所依赖的AI系统是否在不知不觉中被设计为对某个年龄组不公平。 (]0%}$Fo  
一旦觉得被机器冤屈,你很可能会感到一定程度的愤怒,甚至可能比被一个混蛋老板解雇时更愤怒。 (i34sqV$m  
算法也是个混蛋吗? [Sr,h0h6  
TH; R  
黑盒算法 ??PC k1X  
L\)ZC  
_hRcc"MS`  
这个问题暴露了一个令人不安的现实,即每个AI算法都是一个黑盒子。没人知道算法在做什么,无论是Facebook这样的社交网络巨头使用的算法,还是Waymo的无人驾驶赛车robocar使用的算法,这使得这个勇敢的新AI时代的一切都变得不透明和不确定。 KM}f:_J*lg  
最近几天,人们已开始公开讨论是时候拆分Facebook了。 P_?gq>E8  
我不确定这种拆分是否会改变那些巨型技术平台之间的任何商业行为,但有一件事是肯定的,不是用户,而是Facebook本身在肆意决定我们在新闻推送中能看到什么。Facebook在没有监管的情况下运营。 4wID]bKM  
正如Facebook 的联合创始人 Chris Hughes在“纽约时报”上写道的: C ~<'rO}|  
Facebook最大的麻烦在于马克单方面控制言论的能力。马克有能力监控、组织甚至审查20亿人的谈话,这是史无前例的。 6l5:1|8b,!  
Facebook的工程师们编写算法,并决定哪些用户评论或体验最终会显示在朋友和家人的新闻推送中。这些算法规则针对性强,而且非常复杂,甚至许多Facebook员工自己都无法理解这些规则。 &u /Nf&A  
工程界不应肩负所有重任,企业、监管机构、消费者和整个社会都应合作共商。 OTGofd2zf  
那些编写算法和设计系统的人们应该开始考虑那些乍看之下离他们的实验室很远的后果——隐私保护和公平性。现在开始讨论基于“隐私保护设计”(privacy protection by design)或“设计实现公平”(fairness by design)原则的系统开发,亡羊补牢,为时未晚。
Y? x,  


评价一下你浏览此帖子的感受

精彩

感动

搞笑

开心

愤怒

一般

差劲
离线eason86

性别:
帅哥
发帖
974
金币
836
提示:会员销售的附件,下载积分 = 版块积分 + 销售积分       只看该作者 1楼 发表于: 2019-07-24
    


离线sun5304

性别:
帅哥
发帖
6244
金币
8073
提示:会员销售的附件,下载积分 = 版块积分 + 销售积分       只看该作者 2楼 发表于: 2019-07-24
  


在线heming2216

性别:
人妖
发帖
11377
金币
8692
提示:会员销售的附件,下载积分 = 版块积分 + 销售积分       只看该作者 3楼 发表于: 2019-07-24


离线nyszx

性别:
帅哥
发帖
238
金币
44
提示:会员销售的附件,下载积分 = 版块积分 + 销售积分       只看该作者 4楼 发表于: 2019-07-24


离线leiyijie

性别:
人妖
发帖
4210
金币
3622
提示:会员销售的附件,下载积分 = 版块积分 + 销售积分       只看该作者 5楼 发表于: 2019-07-24


快速回复
限150 字节
 
上一个 下一个