首页 > 技术 > 大数据

大数据是怎么毁掉你的生活的?|大数据影响

人阅读 2023-05-18 14:12:00

【大数据是怎么毁掉你的生活的?|大数据影响】lot物联网小编为你整理了的相关内容,希望能为你解答。

本文选自中信书院阅读时差栏目。阅读时差动态实时同步全球前沿新知,为你打破知识的国界。

本期阅读时差为你分享的这本书是《大数据的真相》。

《大数据黑盒里的漩涡与偏见》

凯茜·奥尼尔 著

透过书名不难看出,本书的目的就是让读者看清楚大数据的暗黑面,从而对大数据保持清醒、客观的认识。在今天,大数据已经不再是陌生的事物,从上网购物的广告精准投放,再到驾车出行的路线规划,都可以看到大数据的身影。在大数据的支持下,人们的生活越来越便捷,越来越智能。

但是大数据的背后同样也隐藏着不为人知的阴暗面。因为大数据是依靠算法模型得来的,而算法模型是由人来设计的。所以,只要有人的参与,就势必会掺杂个人情感或认知偏见,导致得出的结论也难免会有失公允甚至还可能会带来歧视、扭曲事实、失去正义,造成不公平泛滥。

所以,如果不能对大数据加以正确的引导,则可能会带来歧视、扭曲事实、失去正义,造成不公平泛滥。只有明确地将更好的价值观加入到大数据的算法中,我们才能创造出符合道德准则的大数据模型,从而更好地为人类服务。

全文提纲

围绕算法模型中存在的阴暗面,我们来分享一下大数据滥用的“四宗罪”:

首先是偏见,看看大数据是怎样用技术包装偏见的;

第二是逐利,看看掠夺式广告是怎样兜售虚假或高价承诺的;

第三是剥削,分析大数据对底层人民的压榨式调度;

最后一个是歧视,揭露大数据是如何给民众带来不公平待遇的。

1偏见,大数据用技术包装偏见

首先来看第一个重点内容:偏见,看看大数据是怎样用技术包装偏见的。

我们知道,大数据的基础在于数据和模型,其中模型处于主导地位,能够从海量的数据中抽离出相对有用的部分,对外部环境进行抽象概括,从而得出结论指导现实。值得注意的是,模型的本性就是简单化,不可能囊括现实世界的复杂性或者人类交流的细微差别。在人的设置和干预下,有些信息不可避免地会被遗漏或突出,从而体现为偏见。这种偏见在大数据出现之前,是体现在过程之中,而大数据出现之后,偏见就提前埋伏在算法模型里了。因此,冰冷的计算机和数据化风险模型得出的结论,虽然看起来就是一副公正无私的样子,其实是把偏见隐藏在了更深的地方。

来看一个带有种族偏见的数据模型。长期以来,种族是美国审判的一个主要因素。研究表明,在休斯顿市,对于同样罪行的犯人,检察官判非裔美国人死刑的几率比白人高三倍,判西班牙裔美国人死刑的几率比白人高四倍。为改变这种情况,美国有24个州的法院采用了一种再犯模型,帮助法官评估每一个罪犯构成的危险,减少法官的情绪和偏见所带来的影响。其中,一个叫做LSI–R的普及模型应用最为广泛。这个模型要求罪犯填写冗长的问卷调查。比如“你之前犯罪次数是多少?”“其他人对这次犯罪起了多大的作用?毒品和酒精对于你犯罪起了多大作用?”等等。

这些问题看起来很正常,没毛病,但在实际操作中却存在问题。来自有特权背景的罪犯和来自治安差的平民街区的罪犯,答案肯定不一样。

比如,同样问“你第一次遭遇警察”的原因,在舒适郊区长大的罪犯也许会告诉你这是第一次入狱,而来自平民街区的年轻的黑人男性很可能已经被警察多次拦截,即使他们什么错事也没做。

研究报告显示,14-24岁的黑人男性和拉丁美洲男性仅占该市总人口的4.7%,但他们占被警察拦截盘查总人数的40.6%。而且,那些被盘查的人中90%多都是无辜的。然而根据模型统计,经常被拦截的嫌犯判分更高,更容易被模型分类为高风险等级,从而误导法官量刑。

更严重的是,罪犯还会被问到出生和成长的环境,他们的朋友和亲戚是否有过犯罪记录等等。事实上,法官应该对所做的事情进行审判,而不是对嫌犯的身份进行审判。这些细节不应该和刑事案件或者量刑相关。

然而,在LSI-R这样的数据模型下,原本身处底层社会的有色人种受到了更加严重的种族问题。“高风险”得分等级的人很可能是失业人员,而他的许多朋友和家人都触犯过法律。而且多年和一群罪犯关在一起,又增加了他再次犯罪的可能性。等他出狱时会回到同样的贫穷社区,有了犯罪记录,找工作就更难。如果他再犯罪,再犯模型又一次成功验证。事实上,正是这一模型导致了恶性循环,且一再地自行巩固。

面对真实现状,作者禁不住提出疑问,我们是利用大数据彻底根除了人类偏见,还是只是用技术包装了人类偏见?答案其实就在眼前。

2逐利,掠夺式广告通过大数据兜售虚假承诺

说完偏见的问题,再来看看大数据的第二宗罪,逐利,来看看掠夺式广告,怎样通过大数据精确找出弱势群体,兜售虚假或高价承诺的。

经常网上购物的朋友会发现,互联网会利用我们点击、阅读的习惯,确定偏好和模式,为我们在数百种模型中进行排名、分类以及评分。这为合法的广告奠定了强大的基础,但同时也助长了掠夺式广告的泛滥。

掠夺式广告是什么呢?

打个比方,如果人们缺钱,就提供大量高息发薪日贷款;如果他们的电脑运转缓慢,那它可能中了一个掠夺式广告携带的病毒,然后广告商提供修理服务。总的来说,在人们既有需求又很无知的任何地方,你都能看到掠夺式广告。

掠夺式广告发现不平等,并大肆利用,最终的结果是巩固了现存的社会分层,加速对穷人的掠夺。

作者认为,美国的营利性大学之所以如此繁荣,就是掠夺式广告的功劳。这些营利性大学就像江湖骗子一样,倾向于锁定最贫困地区的人,尤其是特别关注那些点击过贷款广告的人,然后利用他们的私密信息攻击他们。他们是怎样找到这些私密信息的呢?很多人在Google上搜索答案或者在填写问卷时,不知不觉中就暴露了自己的隐私。

2010年,一条引人注目的广告刊登了奥巴马总统的照片,广告词为:“奥巴马呼吁妈妈们回到学校:完成你的学位,把助学金给有资格的人。”这则广告暗示,总统签署了一项旨在让母亲重返校园的新法案。但这是一个谎言。当消费者点击这个广告时,会被问到几个问题,包括年龄和电话号码,然后就会接到一所营利性学校的电话,主动提出帮她借钱申请入学。据报道,营利性大学20%-30%的广告预算都用于开发潜在客户。大学每收到一个最有希望的学生,就支付给提供者高达150美元的费用。

美国底层40%的人口没有财富,普通家庭的负债平均为14800美元,其中大部分是利率过高的信用卡账户。而他们一直被灌输“赚钱的关键是接受教育”这样的理念。这些以盈利为目的的大学就通过大数据的模型,筛选出这些弱势群体,然后向他们承诺,只要接受教育就能够给他们一个美好未来。然而当学生入校之后,就会告知要通过各种贷款来解决学费问题,从而增加更多的债务。贫穷学生因此变得无望、绝望,怀疑教育的价值,加剧美国的贫富差距。

不幸的是,除了营利性大学,还有很多利用掠夺式广告的公司。你只需要想一下人们的痛点在哪里,就会发现广告商在哪里使用掠夺性模型。数据支持的模型在不断地筛选我们的数据,搜寻我们的习惯、意愿、忧虑和渴望,推送的每一条广告都能够锁定最有效的信息,在对的时间出现在潜在客户眼前。

精准信息触发顾客决定,从而成功地拖住又一个付费客户,使得掠夺者所花的每一分钱都能产生最大的效益。所以,站在掠夺式广告商的角度来看,穷人在搜索引擎上的查询和点过的优惠券,实际上是在呼叫特别关注。

3剥削,大数据对底层人民的压榨式调度

大数据模型不但干预生活,还能够给工作带来重大影响,有些负面影响甚至比周扒皮的半夜鸡叫有过之而无不及。这就是大数据的第三宗罪:剥削,来看看大数据对底层人民的压榨式调度。

这主要体现在人力调度软件上。这种软件可以利用大数据分析顾客流量,精确计算出每一天、每小时他们需要多少人力,从而降低人力资源成本。比如,某天中午下雨,公园里的人可能会跑进咖啡店;每周五晚上大街上将出现更多的行人等等。软件能够根据这些情况变化合理配置人力,来匹配不断波动的需求。乍看之下,你会觉得这套机制很先进,但事实上却是一种赤裸裸的压榨。

在低效率的经营模式下,职员有可预测的工作时间和固定的闲暇时间。有些人可以在工作时间读书,甚至做研究。现在,由电脑程序进行人力配置,职员每一分钟都很忙,几乎连个人时间也都被压榨一空。2014年,《纽约时报》报道过一个单亲妈妈简奈特·纳薇欧的遭遇,她的生活被大数据监控并影响。她一边努力读大学,一边在星巴克担任咖啡师,同时还得照顾她四岁的孩子。大数据指导下的工作调整,让纳薇欧的生活陷入混乱,无法安排固定的托儿服务,只好暂停学业。

《纽约时报》这篇文章报道后几周内,遭到点名的大公司宣布将调整这种调度方式。但追踪报道显示,这些公司压根就没有信守承诺。归根结底,还是利润在作怪,像星巴克这种上市公司的商业模型,都是以提高盈利为目的的。

人力调度软件对社会同样造成了极大的影响。像纳薇欧这样的群体,因为工作时间非常不稳定,不可能回学校念书,而这又损害了她的就业前途,只能当一名供大于求的低薪劳工。于是他们会格外焦虑,睡眠不足,继而产生剧烈的情绪波动。据统计,美国死在公路上的人估计有13%是因为睡眠不足。更糟糕的是,因为这种软件是来替企业省钱的,它们往往会将员工每周工作时间限制在30小时之内,这样公司就不必为他们提供医疗保险。在这种情况下,低薪劳工永无出头之日。

4歧视,大数据给民众带来不公平待遇

大数据不但成为资本家为虎作伥的帮凶,甚至还会加剧社会的不公。这就是大数据的第四宗罪:歧视,我们来看看大数据是如何给民众带来不公平待遇的。

现在,大多数人都相信,数据越多越好。对于大数据来说确实如此。如果只关注很少的数据,那么只能呈现出相互独立、毫无关联的点;而将更多的数据纳入模型,就能够构建出事物的整体面貌。但同时,这些大量的数据来源于规模巨大的群体,忽略了相对较少的个体。而且,这种模型使用频率越高、数据量越大,越能够增加这种不公平的待遇。

我们来看暴力犯罪的大数据模型案例。有一款软件叫做“预防政策”,原本这是一个地震预测软件,但应用到犯罪预测领域,不但能够定位犯罪最有可能发生的地方,还能预测连续犯罪。这主要是源于警察局把“轻微犯罪”的数据纳入“预防政策”这个软件中。这些数据包括天天发生的商店行窃、小额欺诈,甚至是违规停车。

英国肯特郡警察局在2013年尝试使用“预防政策”软件,确实奏效了。根据“预防政策”的指引,在指定广场巡逻的效率是随机巡逻的十倍,精确度是警方情报分析的两倍。那么,模型最擅长预测的是什么类型的犯罪呢?答案是包括随意大小便的醉汉、小偷小摸的偷车贼等等的轻微犯罪。

但最令人可悲的是,大数据勾勒出的犯罪地图证实,大部分罪行都是穷人干的。为什么会得出这样的结论呢?这里面固然有穷人的比例远高于富人的原因,同时也有数据模型和警察的原因。为了支撑大量的数据,警察就会把各种轻微犯罪录入模型,而模型又反馈出穷人犯罪的高概率。

反过来看,那些富人实施的犯罪行为都哪去了?是他们奉公守法吗?当然不是。作者写道,在本世纪头十年,金融大亨通过撒谎、欺诈几乎摧毁了全球经济,使得数以百万计的人失去了家园、工作和医疗保障,犯下了滔天罪行。但是,联邦调查局和证券交易委员会的调查人员却拿他们没有任何办法。富人们在政治家身上投入了大量资金,而且他们经营的银行直接影响到国家经济,因此受到了保护。除了一些像庞氏骗局操作者伯纳德·马多夫这样的极端犯罪,金融家不会被逮捕。更何况这个群体在2008年的市场崩盘中几乎毫发无损,现在依然逍遥法外,享受特权。

在这种情况下,尽管“预防政策”是一个非常有益、甚至高尚的软件工具,但它也成为了数学毁灭武器。“预防政策”软件授权警察局锁定穷人,拦截更多穷人,逮捕一部分穷人,把一些穷人罪犯关进监狱。现在,有了大数据的支持,警方更加捍卫了他们在这一行为的合法性,与此同时增加了办案的精确性和“科学性”。结果是,我们把贫困看作是犯罪,相信我们的工具既科学又公平。

这突出了数学毁灭武器的另一个常见特征,即往往惩罚穷人。部分原因是数学模型是用来评估数量多的人群。相反,富人通常受益于个人,更依赖推荐和当面交流,而不是依靠网络媒介。因此,我们以后会经常看到,特权阶级更多与人打交道,而群众则由机器操控。于是,模型往往会惩罚社会中的穷人和受压迫的人,而富人也因此变得更加富有,长此以往,社会不公便会越来越明显。

其实,要解决大数据的这些阴暗面并不复杂,只要在政府和相关机构的合理监管下,数据模型的创造者对算法负责,政策的制定者及执行者们更加慎重地使用和改善各类设计评价体系,就能够让更多的人从科技发展中受益,进而更好地维护社会的公平与民主。这才是作者撰写本书的本意。

总结

首先是偏见,大数据是经过计算机和数据化风险模型等技术包装的人类偏见,提前埋伏在算法模型之中;

第二是逐利,互联网会利用我们点击、阅读的习惯,确定偏好和模式,发现不平等,并大肆利用;

第三是剥削,人力调度软件可以利用大数据充分利用人力资源,通过剥削员工时间来达到谋取利益的目的;

最后一个是歧视,大数据来源于规模巨大的群体,而让掌握绝大多数资源的少数人脱离于系统之外,于是加重社会阶层分化,加剧不平等。

以上内容为【大数据是怎么毁掉你的生活的?|大数据影响】的相关内容,更多相关内容关注lot物联网。

LOT物联网

iot产品 iot技术 iot应用 iot工程

Powered By LOT物联网  闽ICP备2024036174号-1

联系邮箱:support1012@126.com