• 当前位置:首页 记录片 监视资本主义:智能陷阱

    监视资本主义:智能陷阱

    评分:
    0.0很差

    分类:记录片美国2020

    主演:杰伦·拉尼尔,罗杰·麦克纳米,斯凯勒·吉桑多,卡拉·海沃德,文森特·卡塞瑟,马蒂·林赛,Ena Henderson,Chase Penny 

    导演:杰夫·奥洛威斯基 

    提示:如无法播放请看其他线路

    提示:如无法播放请看其他线路

    提示:如无法播放请看其他线路

    提示:如无法播放请看其他线路

    提示:如无法播放请看其他线路

    提示:如无法播放请看其他线路

    提示:如无法播放请看其他线路

     剧照

    监视资本主义:智能陷阱 剧照 NO.1监视资本主义:智能陷阱 剧照 NO.2监视资本主义:智能陷阱 剧照 NO.3监视资本主义:智能陷阱 剧照 NO.4监视资本主义:智能陷阱 剧照 NO.5监视资本主义:智能陷阱 剧照 NO.6监视资本主义:智能陷阱 剧照 NO.16监视资本主义:智能陷阱 剧照 NO.17监视资本主义:智能陷阱 剧照 NO.18监视资本主义:智能陷阱 剧照 NO.19监视资本主义:智能陷阱 剧照 NO.20

    剧情介绍

      我们发推文、点赞、分享 — 但日益依赖社交媒体会带来什么后果?随着数字平台日益成为人们保持联系的重要方式,硅谷内部人士通过暴露屏幕另一侧的隐藏内容,揭示了社交媒体如何重新改写文明。

     长篇影评

     1 ) 换个名字吧

    《The Social Dilemma》

    It’s the Critics who’s the true Optimists.

    当你没有为产品付费之时,你便成了唯一的产品;当你没有为将来努力一搏,你便成了仅存的将来。从前有句名言如是:没有邪恶的工具只有罪恶的人物,社交媒体发展至今,确有伟大的软件也有自私的企业,打造美好世界的初心随着恶性商业模式的膨胀不再,因日活增长打消了人道考虑,因季度目标抛弃了伦理法律,优化推荐加速算法只为精益求精,留住用户抢占注意才是重中之重。互联网技术甩开人类智慧太远,抗争百年好不容易废除奴隶制,却又在短短十数余年重新成为赛博机器的囚奴,一边享受着上瘾快感,一边呼吁着抵制操纵,这既不合理也不合适,至少我是不愿放弃豆瓣的。

    一群清醒人士,和高知学者,以悲观口吻故作深沉,世界各地的暴乱游行蒙太奇除了挑动观影者的恐惧情绪并无他用,大谈现象简单归因,且浅显到大学生都能想出,还有这糟糕的译名,略无语。

     2 ) 又开始疯狂讲话

    短评里对这个片子的微词多着眼在影片内外的割裂对立。 但我倒是在观影过程中忍不住跑神头脑风暴了n次,这么看,影片对我就不仅仅是老生常谈了。 虽然没法按顺序按逻辑梳理我的wandering mind,就想到哪说到哪吧。 第一个反思是:(只)运用抽象语言

    我感到自己表达能力不足并意识到表达力的重要性,不仅源自现实学习工作的需要,和社交网络中意见领袖的影响力飙升也脱不了干系。我不只一次对着舌灿莲花的博主感叹:“怎么这么会讲!”“太会讲了吧!”于是暗自发力练习讲话。

    但最近,一个问题引起了我的注意。我发现我把精力都集中在抽象语言的运用,但忽略了具体叙事和细节描绘。事实上,我爱的那些博主,ta们说话的魅力也常常表现在针对具体事件形成观点输出和论证,偶尔援引其他具体事件也是出于论据需要。

    在传播场上,我们很容易发现,观点跑得比故事快,有些观点甚至会浓缩成迷因长久地流动在社交空间里。而那些能混得开的故事往往是以观点容器和引爆器的身份占据了大众视野。这个世界,观点已具有比事实更重要的力量,而抽象语言则作为观点的基础占据了我话语实践的绝大部分。而影片也是以这种方式展开。

    话语空间铺天盖地的抽象语言是不是削弱了波兹曼在《娱乐至死》里对批判性思维丧失的担忧呢?当然没有,事实上,它和李普曼在《舆论》里提到的“象征符号”遥相呼应,以抽象泯灭了那些具体生动复杂的情境、细节和差异,以口号式的单板逻辑满足了个体对“独立思考”的情感需要。

    因此,这也向我发起了警告,尝试去说一些具体的故事,以民族志而非大数据的方式去看一看这个世界,甚或在一些时候抛弃掉旁观者的角色,只进入其中说话。(当然,这条除外🤥)

    第二个反思是:我在意点赞吗?

    即使我对点赞也很敏感,享受着每一个认可带来的即时满足,但我似乎不完全被点赞影响着心情。事实上,由于更多人活跃在朋友圈,偶尔发一条动态时,甚至会因为要点掉消息提醒而感到疲乏。对于公共空间的讨论也如是,在一些过度投入的评论回复的来来回回里,我会迅速感到疲乏。而其他一些骗取我注意的策略:通知栏、奖励性广告都对我无效。我玩不来抖音,也不喜拼多多(恨死它总因误点而自动下载)。而在我沦陷的那些平台里,我也时常产生厌倦到不想继续浏览的思绪。

    但是,我不耍手机,还能做什么呢?不论我关不关注点赞,长期活跃在虚拟空间里确实挤兑了我对其他活动的意愿和想象。现实连接的淡漠致使我仍然会不停刷刷刷,刷到眼睛不得不合上。手机不再令我快乐,却也剥夺了我从其他活动获取快乐的能力。

    所以,如何去拓展现生,并激发出长久为体验过的愉悦(不依托在社交平台上的炫耀),是亟待实现的下一阶段。

    第三个反思是:两极化

    前两天刚因为路温1900的视频跑去知乎和别人battle“女拳”在现阶段是否应该取缔。我倒不是想借这个例子说明两极化确实存在且日渐严重,而是好奇,沟通的可能性。事实上,任何一个观点呈现在面前,都是在trigger你脑海里的过往经验和认知,但在虚拟讨论空间中,我们对另一个人的脑内图景一无所知。是否存在一些最基本的共性,可以为双方能彼此听懂的讨论提供策略?

    这个问题也让我想到了robber's cave那个实验,被随意标签的两组儿童在交往过程中自发产生了对本组的高认同感和对另一组的憎恶,而促进两组儿童collaborate的唯一办法是树立起第三方敌人。啊哈,牛嗷。我们在多大程度上是自主选择了某一共同体,又在多大程度受到共同体支配行为与思想?我们应该如何培育自主性,如何抵御这种支配?还是说我们的确可以利用共同体实现一些抱负?

    这可太复杂辽,在这里仍只触及了边边。脑容量不够,还没法顺畅地阐释这个问题,再讲下去又要头痛咯~

    就这样吧。

    结束

     3 ) 大危机之后的大觉醒?

    观影过程中无数次有两种冲动并行,一种是检查手机有没有新消息,另一种是去卸载Facebook,Twitter,Instagram,或许还有微信的朋友圈。尽管两种冲动看似对立,但背后的原因是一致的,那就是,都是人类大脑因为生理机制和长期习惯形成的一种“冲动”,并不是我真的需要此时此刻去检查是否有新消息,也不是我真的经过深思熟虑之后才决定卸载掉社交媒体。对于后者而言,我也只是又一次被“灌输”了一种“观点”, 即,社交媒体是“坏”的。在这种意义上,人真的是一种很简单的动物,我们习惯于接受,因为接受是一种太容易的动作。推荐的广告,点开看看,推荐的视频,点开看看,推荐的新闻,点开看看,而无论链接后的内容和我们现实生活里的身份、形象、品味可能相差几何,先点开看看。Like, 既然有时间,why not。也许换个场合重新回顾我们的网络历史行为,我们会难以置信我们点击了一些如何愚蠢的玩意儿。

    事实上,这部纪录片我也是在豆瓣动态上看到多个友邻推荐,并且刚好对这个话题感兴趣就重新激活了我的Netflix点开看了, 不这部电影绝对不是愚蠢的。因为它引发了我太多共鸣。大概是两年前,我回国做田野的间隙去了一趟北京,看望了一下在当时还叫今日头条的地方工作的高中同学。那个时候头条刚刚改名为字节跳动,抖音还没有今天这么火,但已经出现了疯狂扩张的苗头。我去他的公司参观,我们聊起抖音,作为和数据研发相关的核心成员,他和我介绍抖音的各项功能,只记得当时我对这一款产品持一种比较负面的看法,觉得其核心机制就是让人上瘾而且内容并没有什么营养。而我们聊的具体内容我已经忘了,只记得他向我展示了他的抖音界面,是很多可爱的小猫,即各种“吸猫”视频。唯一印象深刻的是从他看那些视频的神情上,我读出了他可能也是一个短视频产品的重度上瘾用户。后来吃饭的时候他和我说,现在百度已经不行了,很快就会被字节跳动超越,我当时还将信将疑。而今日,tik tok不仅火遍全世界,还significant到陷入中美商业大战之中。这是短短两三年前我完全没有预料到的。

    毫无疑问,社交媒体是一个可怕而十分真实的幻觉,而这一点我最近才亲身感受到。虽然曾经一度是朋友圈重度刷屏用户,也偶尔在豆瓣上发点牢骚,但很少在纯陌生人社交媒体上生产内容。直到上一个月,我加入了鹅组,到目前为止发了两个帖子,其中一个是投票,没想到竟然有数百人参与了投票。这种现象会给你一种错觉,你的一个十分简单的行为影响了几百人的错觉。又或许这不是错觉,即便是在最微小的程度上,我的确影响了几百人的一种行为,我收集到了几百人的某一类数据。作为一个经历过十分困难地发问卷做访谈,需要实地调研才能收集到各种数据的社科生,这种感觉尤其奇怪,好像某种过去的看法和想法被完全地颠覆了。因为70万+人(爱八卦又有很多闲暇时间的)鹅组人,就像一个极其responsive的理想环境,即便是一个最无聊的话题,也可能会有很多人回复你。这种感觉太奇怪了。因为付出和收获似乎完全不成正比。可能我只是花了半分钟写了一几句话,就收获了几百个人的点击。很奇怪。

    观影过程中,我既庆幸我上大学以前没有手机,上网的时间也很有限(尽管这样,还是一度对百度Hi和QQ说说上瘾过),又反思了自己从大一到现在的七八年,生活因为社交媒体、互联网产品发生了怎样的变化。我第一份有意义的长期实习是在学校的某求职公众号上无意间看到的,并且间接地决定了我第一个研究生项目目的地。我第一段认真的长期恋爱对象,是在网上偶然认识的,虽然我们现在分手了。ex是个一贯对社交媒体保持谨慎态度的人,尽管恋爱期间我们在Facebook上添加过好友,但他从来不在上面发布任何帖子,我们俩也几乎零互动,可能他只给我赞过一张照片。即便如此,当分手的时候我把他从Facebook联系人里删了,在那不久之后的某天,我竟然在fb的好友推荐里看到了他亲姐和他发小。不得不说一句,这是什么神机妙算。

    说到这里,感觉已经完全跑题。In short,这是一部很棒的影片,尽管你可以说它也试图通过互联网媒体的力量sell its opinion,但它至少是在面对互联网资本力量不断侵蚀我们生活自主性的危险趋势下某种反思的开始。作为经历了现实和虚拟完全缠绕的一代,希望我们都可以找到一种驯服互联网工具的方法,而不是被驯服,成为资本牟利的工具, 面对一切信息,尽可能地保持冷静、保持批判、保持思考。

     4 ) 对抗硅谷,为了“楚门的世界”里的27亿人

    2016年,特里斯坦·哈里斯——这位谷歌的内部道德设计师决定离职,此时的他已经意识到,Facebook、谷歌(YouTube、谷歌搜索)、推特这样的互联网科技公司为了商业利益,利用算法吸引人上瘾的产品设计,是不道德的。这已经成为:

    “人类生存的一大威胁”。

    他想到了对抗。实际上,特里斯坦·哈里斯任职谷歌期间,谷歌有知名的“不作恶”准则。但这一准则并没有阻挡住算法基于商业利益走向偏路。离职两年后,特里斯坦·哈里斯拉着Facebook和Google等大公司离职或在职的技术专家,建立了一个叫“人道科技中心”(Center for Humane Technology)的组织,这个组织在2018年成立,用来——

    对抗硅谷互联网公司让人上瘾的设计理论。

    除了特里斯坦·哈里斯,参与这个中心工作的人,还有前Facebook运营经理;苹果公司和谷歌前通讯主管林恩·福克斯;前Facebook高管戴夫·莫林;Facebook早期投资人罗杰·麦克纳米。

    纪录片截图:“人道科技中心”(Center for Humane Technology)

    2017年前后,很多硅谷公司的高管,感觉到了算法操持的互联网平台,出现了道德伦理危机,纷纷离开了所在公司,2020年,网飞(Netflix)公司拍摄了一部纪录片叫《监视资本主义:智能陷阱》。片中,Pinterest 的前总经理、Facebook的前盈利总监Tim Kkendall说他担心算法操纵的世界最终导致美国内战;一个从谷歌出来的工程师,担心整个互联网产业的道德沦丧……

    曾与马克·扎克伯格(Mark Zuckerberg)一起创办了Facebook的克里斯·休斯(Chris Hughes)离职后多年后,批评Facebook说,“扎克伯格是个好人。但令我感到愤怒的是,他对增长的关注导致他为了点击而牺牲了安全和道德底线”。

    这样严重的担忧,是什么导致的,问题出在哪儿呢?

    纪录片截图:一个前谷歌员工离职的原因

    01

    2018年,推特CEO Jack Dorsey在一次听证会上说,12年前创办推特时,他没想到推特会变成今天这样……

    这段话,与《黑镜》第五季第二集的剧情正相契合,该剧正好也是网飞公司拍摄的。男主Chris Gillhaney因为在一次和女友驾车的过程中看手机社交消息,导致车祸,女友当场死亡。当他恢复过来后,他做了一个类似UBER产品的司机,每天在这家叫“碎片”的社交网站公司楼下接客。终于有一天,他接到了一个这家公司员工,绑架了他,通过要挟这个员工,逐层上接,和“碎片”公司CEO接上了电话,而他只是想告诉这个CEO,社交网站是怎样绑架了人们的生活而导致种种悲剧的。这家CEO的回答和推特CEO的回答很相似:

    我当初创办这家公司的时候,没有想到它会变成这样。

    “碎片”公司CEO阐述了一种逻辑:一个产品成型后,它的走势就不再是他能决定的,每一次更新和功能改进,都是因为用户喜欢、希望得到的结果,这并不一定是一个CEO想要的。

    上瘾,几乎成了所有社交App追求的东西。

    《监视资本主义:智能陷阱》采访了很多前硅谷科技公司的前高管和投资人。

    作为谷歌前道德伦理设计师的特里斯坦说,当年他在谷歌做邮箱设计时,意识到一个问题,历史上从来没有过50个左右的20-35岁的加州工程设计师做出一个决定,就能影响20亿人,影响他们做出从来没有预想到的想法或决定——当用户早上醒来,谷歌邮箱就告诉他,应该这样工作。工作、文化、生活的意义,都来自一个鬼鬼祟祟的第三方操纵。而谷歌内部,没有一个人想把邮箱做得不那么致瘾。

    纪录片截图:特里斯坦·哈里斯——谷歌前内部道德设计师

    后来他做了一个呼吁:我们这些工程师,有道德责任去审视、讨论致瘾问题。

    特里斯坦发出这个呼吁后,很多工程师都赞同,然后,就没有然后了……

    作为Facebook 的早期投资者罗杰·麦克纳米说,硅谷的前50年,IBM、谷歌、英特尔都制造软件或硬件产品卖给顾客,商业模式简单而良好。但过去十年,硅谷最大的公司一直在“贩卖顾客”

    互联网时代以前,人们所发明的东西,都是为大众服务的,自行车、汽车、计算器,它们是简单而中性的工具;当互联网时代兴起后,技术慢慢演变为向人类索取、引诱甚至操纵并从人身上获利的工具,已经由以人为主动型技术环境,转变为以人被动接受的、致瘾操纵型的技术环境。社交媒体不再是等在仓库里等着人去骑行的自行车,或驾驶的汽车,而是会自我学习、分析、操纵、致瘾的东西。

    硅谷大公司的高管们就很警惕这个问题,比如比尔·盖茨和史蒂夫·乔布斯的小孩,童年就被要求与电子产品完全隔离。

    这正是《纽约时报》2018年的一篇文章所说的,“技术专家知道手机的真面目,所以他们很多人决定让自己的孩子远离这些东西。”

    雷慢曾说过,互联网是一个喂养型的社会。这种喂养是经过大数据分析、机器学习决策后,推送给人的。

    这也是马克思、弗洛伊德等人对“异化”一次观点所说的,人作为客体被动地接受体验世界和自身;“物凌驾于人之上”。就像系统算法凌驾于外卖快递员之上。机器流水线凌驾于工人之上一样。

    02

    现在,互联网公司提供了大量的免费产品,FaceBook、微信、抖音、推特,大家都不为使用的社交产品付费。为这些社交App付费的是那些广告商,广告商就是社交App的顾客,而用户成了被销售的商品。这就出现了一种现象:

    如果你没有花钱买产品,那你就是被卖的产品。

    所以FaceBook、推特这些公司的商业模式就是,怎样让你最大程度的上瘾,花更多的时间在这些App上,付出你人生的时间。

    人生值多少钱呢?

    哈佛商学院教授Shoshana Zuboff被采访时说,在商业上,FaceBook、推特们为了卖出更多的广告,需要给与顾客确定性,所以,商业广告卖的就是确定性,这个“确定性”就来自用户上瘾背后的“数据分析”。

    纪录片截屏:大数据可以记录用户在某张图上停留了多长时间,来判断用户对那种图感兴趣。

    这就是纪录片标题所说的核心:监视资本主义。

    为了获得数据,这些公司需要监视用户去过的每个地方,每种喜好,每种行为数据,无限追踪、分析、评估,无限逐利。

    你喜欢看NBA的视频?好的,在你看下一个同类视频前,给你插播一条篮球鞋的广告。

    纪录片截图:算法模型会给用户画像,这个画像是由无数的行为数据建立的。

    这些数据不用人看管,机器可以自动深度学习,给出预判,这也是推特CEO所说,为什么这些产品成了当初他们所没想到的样子。

    但高管们做了什么呢,预判人们行为轨迹的模型是他们做的,能够自动学习的程序代码是他们写的。

    这一切都为了一个确定性:尽可能成功的将用户卖给广告商。Shoshana Zuboff将这个市场称为:

    从未出现的、最大的人类期货市场。

    过去我们交易猪肉期货、钻石期货,现在人类也成了期货。

    上瘾带来的后果是,将你还没想到的部分,用算法推送给你,使它们成为你思想的一部分,还让你觉得这是自己所想的。

    FaceBook、UBER等公司的高管都曾在斯坦福大学上过这样一个课程:怎么用技术劝服用户?这类行为被称为:

    劝服的艺术。

    这是一种极端刻意的、对人们行为进行设计的行为。用户的每一次下拉或上拉刷新,都是一次算法的重新推送。它们深入脑袋里,植入一种无意识的习惯,让人的脑袋更深层次地被编程。

    FaceBook曾做过一个“海量规模蔓延实验”,测试用FaceBook上的潜意识信号来让更多人在美国中期选举投票,实验结果是:能。

    这种影响并不会触发用户的意识,而是一种潜意识,这意味着用户根本不会察觉。

    这种实验,谷歌和FaceBook每年要在用户身上做很多,用户就是实验小白鼠。

    03

    各种致瘾的大数据分析、算法推送,使美国Z世代的年青人成为了牺牲品。

    纽约大学心理学家Jonathan Haidt提供的数据显示,大概在2011年至2013年前后开始,每年因为割腕自残而住院的少女出现了剧烈上升的趋势。

    纪录片截图:近20年,美国每年少女因手机上瘾而自残与自杀的趋势

    一个常见的现象是,人在孤独、无所事事的时候,总要找点什么事情做。如今这个空隙被算法推送的网络社交、短视频等占据了,人处理情绪的能力就退化了。

    Cathy O’neil是一个大数据科学家。她说,算法是内嵌在代码中的观点,它并不是客观的。算法会被成功的商业模式引导、优化。

    通常,在一个像FaceBook这样影响数十亿人的公司里,能明白某个程序算法工作逻辑的就几个人,相对于70多亿的人类来说,可以看成:人类失去了对算法系统的控制。

    罗杰·麦克纳米说,这就像一个27亿人的《楚门的世界》,每个人都有自己的世界。没有人发现自己所在世界的本质真相。当然,实际上,活在“楚门的世界”里的人可能更多。在中国,类似的产品有今日头条、抖音等。

    算法的每一个推送,都代表着一种商业利益。

    在中国,中老年人喜欢看的一些鼓吹、煽动的假新闻视频, 并不是制作者一定相信这些事,而是假新闻传播比真新闻更快,流量能给他们带来商业变现,免费看视频的人,才是被卖的商品。

    特里斯坦·哈里斯发明了一套理论:技术超越人类的第一个阶段点是超越弱点,其结果就是上瘾,上瘾会激化愤怒、激化虚荣,压制人类天性,挫伤天性。第二个点是超越人类的智慧。

    算法喂养的世界里容易出现种种激化的矛盾,每个人的意见越来越不相容,因为每个人都从不同的推送里了解信息,而这些信息、知识又因为推送不同而不同。当两个因为同一个社交网站的鼓吹而同时出现在街上游行的美国人,对同一件事情产生争论的时候,他们容易发现:

    哦,原来我们并没有看到相同的信息。

    这种激化的分歧的一个知名例子就是“地球是平的”论,这种论调在YouTube上被推荐了几亿次,因为有的人喜欢,算法每天都在变着法地给人们推送“地球是平的”的内容,“地球是圆的”则被他们当作阴谋,而且越来越多的人相信了这种阴谋论。

    这个事件的高潮是,今年2月,因为想证实地球是平的,美国发明家迈克尔休斯在用自制的载人火箭进行发射测试后,坠地身亡。

    04

    算法只推荐给人们感兴趣的东西,它并无道德感,它唯一的动力是商业利益,它可以一而再再而三地给人们推送虚假、阴谋论的信息。今天可以让人相信地球是平的,明天就可以让人相信喝消毒液可以杀死新冠病毒。

    2016年,美国有成千上万的民众相信着一个假新闻——一个有民主党高层参与的地下娈童犯罪组织隐藏在一家华盛顿的披萨店,算法在这个事情发酵中,不停地推荐人们加入“披萨门”小组,直到越来越多的人相信它真的存在。

    事件的高潮以一个男子拿着枪要进入披萨店仓库去解救“被迫害的孩子”、半路被警察逮捕了而告终。

    在美国,疫情期间的谣言,和算法的推波助澜,加剧了谣言传播,个体各自为政。人们在街上游行,有的喊“新冠疫苗是阴谋”,有的喊“人类基因不适合新冠疫苗”。每个人执着于自己看到的信息。一个政府官员将其称为:

    新时期的部落主义。

    在算法推送的信息浸染下,2017年的一项皮尤研究中心的数据显示,2017年民主党和共和党的政治分歧达到了20年来最高点。

    在缅甸,2017年以来FaceBook上出现了前所未有、情绪高涨的煽动性言论,这些言论被不停地推送给那些喜欢看的极端民族主义者,催生了严重的犯罪行为、种族主义迫害,并导致了70万罗兴亚族MSL逃离了缅甸。

    纪录片截图:缅甸罗兴亚族MSL大逃离

    《崩溃》一书作者贾雷德·戴蒙德阐明了社会是怎样崩溃的:一个社会一起推动一种不稳定、消极状态的前进,最终导致了社会的崩溃。贾雷德·戴蒙德的学生曾向他问出一个非常有意思的问题:

    17世纪,复活节岛生态环境崩溃前,砍倒了岛上最后一棵树的那个人,那一刻在想什么?

    我们是时候也思考一下这个问题了。

    本文来自“新金融洛书”,欢迎关注公众号:

     5 ) 关于技术的非客观性与不可控性

    道理我都懂,可是谁能在拉屎的时候不看手机呢?

    言归正传,以前一直叫嚣“技术中立”的我这些年来对技术,尤其是巨🐂🍺的技术,真的是越来越保守了。既然略微涉及到了自己专业方面的东西,不妨稍微多写点记录一下自己想法的改变,以及近期的一些思考,主要想说说两点,技术的非客观性和不可控性。

    非客观性

    任何对数学或是计算机科学稍有了解的人应当都知道,算法本质上就是一堆数学和运算,定义明确,不存在任何欺骗性和模糊性——给两组一样的输入,就会出来两组一样的结果(起码分布相同)。算法是如此地“笨拙”和“老实”,不管你是资本家还是无产阶级,算法不受贿也不行贿,只做它该做的事,这还不能被称为客观吗?

    机器学习有个子领域叫机器学习公平性(machine learning fairness),专门研究算法中的偏差对社会公平性的影响。这个领域的研究经常会提到COMPAS数据集,里面记录了一些被告的个人特征信息与犯罪服刑记录等。研究人员用这个数据集去训练了一个机器学习模型,来预测某人未来犯罪的概率,发现训练出来的模型更倾向于错误地将黑人预测为容易犯罪。数学上,这种偏差一方面是来源于训练数据的分布,另一方面则是来源于一些复杂的因果关系,比如法庭上由于种族歧视等黑人更容易被判有罪。这些问题其实都可以通过技术手段,比如重采样或是引入工具变量等,来克服或是减轻,但它背后更本质的一个问题是:为什么我们的社会需要预测一个人是否有可能犯罪?有很多科幻作品比如PSYCHO-PASS都讨论过这个问题,包括社会心理学上也会从自我实现预言的角度研究该种预测对个人和社会所可能带来的影响。这里只做个简单的想象作为一个小小的思维实验,假设我们训练一个模型来预测犯罪,并希望它能最准确地找出潜在犯罪者,同时又训练一个决策或行动模型来逮捕最有可能犯罪的人,随着两个模型互相产生数据互相迭代,最终“犯罪”这个概念将完全由模型定义。当我们为机器学习算法设定目标时,即准确预测潜在的罪犯,我们是在默认地假设一个人是否犯罪是预先就被决定并且不会为环境所改变的。这种假设和目标的设定本身就存在巨大的问题,其反映的是目标和算法的设计者对于人类社会的偏见。

    我们知道所有算法的提出和应用都是为了优化某个目标和解决某个实际问题,但如果我们的目标和问题定义错了呢?我们还要继续使用这些算法吗?问题错了,算法再怎么提升也是白费,it's not even wrong. 刨开它想要解决的问题,算法本身毫无意义,而这些问题被定义的方式,恰巧就反应了问题定义者对于一系列事件乃至整个世界的看法。Algorithms are not objective,它们是一整套价值观的投射,只要我们还在一个人的社会里,算法与其背后的利益关系就不可能也不应当被割裂开。可惜的是,在现在的学术界和工业界,绝大多数全世界最聪明的大脑关注的仍然是如何在特定目标下提升算法的表现,而我们的问题是否定义正确,我们的优化目标是否设计正确,相对来说却不太有人讨论。

    这里我想到之前上的一位研究 Science, Technology and Society(STS, 中文还没有翻译)的老师的课,他论文里有一段关于优化算法的讨论特别有意思。优化算法我们一直都在学,求最值、线性规划、凸优化、非凸优化、动态规划、整数规划诸如此类。但实际上,“优化”是一个西方资本主义社会所创造和强化的概念,它的背后是一套利益最大化的逻辑,这在非西方世界的传统价值观中是罕见的。随着大航海时代与殖民主义、帝国时代的演进,这一套优化的逻辑也慢慢根植进了各个民族的思想,也写进了不同国家的教材。我并非是想说“优化”这个概念不好,或者我们不应该研究优化问题,相反,优化问题很重要,并且能建模很多实际问题。但正因为它能建模太多太多的实际问题,我们才更应该加以注意其适用范围,比如一个班里的同学或是一个组里的同事相互竞争,搞成绩最大化利益最大化,硬生生地把非零和博弈考虑成了零和博弈,这种内卷或许只对补课机构和资本家有益。

    不可控性

    当影片把我们所面临的问题赤裸裸地摆在面前的时候,我才真正意识到并惊讶于,一个我们无法理解、无法控制、拥有巨大预测世界和改变世界能力的技术,竟然早已悄无声息地融入到了我们生活的各个角落。我们一直在思考,如何提升人工智能的极限,或是AI还需要多久才能取代人类,我们看到的始终是AI在人类强项上的羸弱,如关系推理、结构生成等等,就好像AI仍然完全在我们的掌控范围内。但实际上,我们常常忽略的一点是,AI在人类的弱项方面已经做得非常好了,并且我们对其知之甚少。以前中学的时候和同学聊过一些关于基因工程、人体改造诸如此类的话题,结论是这类技术太过神秘、太过强大,在伦理道德和法律条文完善之前就不应该去触碰。现在想来,基因改造相对于复杂的算法来说,或许就是个弟弟。我说“复杂的算法”,并不是因为算法本身的实现很复杂(当然确实也挺复杂的),而是因为现在的很多算法,比如神经网络,本身就是一个“复杂系统”。

    我个人认为复杂系统或者混沌理论是人类在20世纪所提出的最具革命性的概念之一,起码本科接触到这个概念之后,我的世界观迅速就改变了很多。复杂系统(complex system)简单来说,就是系统中有多个个体,它们相互之间会有一些交互,这些个体本身的行为模式或简单或复杂,其间的交互也能以各种形式呈现,可一旦当它们构成系统,整个系统中可能就会涌现出一些难以预见的行为模式。复杂系统或者混沌现象在我们的世界中无时无刻不在呈现,比如气象系统,洛伦兹当年就是因为发现自己用微分方程无法预测天气,而开创了这整个领域,大家常说的“蝴蝶效应”,其实指的就是微小的空气扰动也会在未来大幅影响整个气象系统的运行这一现象。除此之外常见的例子还有大脑活动、心脏跳动、股票市场的波动等等。康威在70年人为构造了一个复杂系统并将其命名为“生命游戏”,这里找到了一个模拟器,感兴趣的话可以玩玩。关于复杂系统和混沌理论的研究瞬间就颠覆了17世纪以来的牛顿范式(虽然爱因斯坦早几十年已经从时空观的角度颠覆过一次了),所有的研究结果都告诉我们,这个世界不是你推动小球,小球就会获得一个加速度,然后像你预想的那样运动——当这个世界由千千万万个小球组成的时候,哪怕你完全知道每个小球的受力情况,你也无法预测整个小球系统将会怎样运行。当然,刘慈欣的三体早就科普过,只需要三个小球,就能使任何人、任何计算机的大脑彻底瘫痪。之前看过BBC的科普纪录片《神秘的混沌理论》觉得很不错,里面也提到了在如此混沌的世界中,数学和科学还能为我们做些什么,答案就包括统计学等等,扯远了。

    回到技术的不可控性,这里想重点讨论一下深度学习掀起的神经网络浪潮。神经网络(neural networks)是计算机科学家们仿照人类大脑的结构所提出的一个计算概念,在计算中,每个节点都被看做是一个神经元,它接收上游神经元所传来的信号,并在一番处理之后将结果信号再传递给下游神经元。单独看每个神经元的行为其实是非常简单的,就是一个带权求和再套一个激活函数(现目前最常见的激活函数就是ReLU,它保留正的数字并将负的数字变为0)。再看神经元之间相互的关系,其实也非常简单,就是计算结果的传递。然而就是这么一些简单的小小的计算神经元,却能从系统层面上发挥令人意想不到的作用——人脸识别、图像生成、阅读理解…很多理论上的工作都尝试去解释神经网络的运作机制,但目前还没有人敢说他真正地理解了神经网络。其中一个比较有代表性的讨论就是神经网络的泛化能力。泛化能力指的是模型把从训练数据中所获得的知识,应用到未曾见过的样例上的能力。做个简单的类比,就好像是你通过刷题来准备期末考试,如果相同知识点的题,刷题时你学会了,考试时你也能做对,那么你的泛化能力就很好。传统机器学习认为模型的参数或是可变性越多,泛化能力就越差。这就好像是你的记性特别好,过目不忘,那么为了做对题库里的每一道题,对你来说最省时省力的方法就是把所有的答案都完全不加以理解地给背下来,但到考试的时候你就会傻眼了。神奇的是,神经网络并不遵循这一规律,去年OpenAI公开的 GPT-3 语言模型中共有1.75兆个参数,但它在下游任务上的表现却完全暴打之前的模型。近期的一些工作比如 Neral Tangent Kernel 对此细致地进行了理论上的阐述,大体上讲,就是当大量神经元组成神经网络后,整个复杂系统就会涌现出一些新的性质。目前不管是学术界还是工业界,都把神经网络当作黑箱在使用,没有人知道这个黑箱中究竟在发生些什么,更不用说有谁能够做到精准地控制黑箱。

    更加令人沮丧的是,神经网络等技术的复杂性还只是不可控的一方面,而另一个不可控因素就是人类社会。人类社会由许许多多的个体组成,个体之间也会经由社交产生各种互动,是一个典型的复杂系统。在人类社会的历史中,我们可以看到很多群体行为的涌现,如政党的形成、经济系统的构建、革命与暴乱等等。如此一个复杂系统本就已经够社会学、经济学、政治学、心理学等学科研究的了,而我们现在还要将复杂的神经网络运用到复杂的社交网络上,其结果想也不知。就如纪录片中所说,这些大佬们在开发产品的时候最多也就考虑了用户粘性等跟商业挂钩的指标,而诸如阴谋论、假新闻的流行,还有意见的极化和青少年成瘾等负面影响,都是在最初的产品开发时所难以完全预见的。至此可以看到,在我们将越来越多的权力交付给人工智能时,情况已经愈发地失控了。

    最后

    尽管快到末尾时大佬们把AI技术、社交网络等带来的问题归因为商业模式的运作,包括整部片子的译名也被加上了“监视资本主义”,但这些问题的根源绝不仅仅只在于经济形式——again, it's all about power moves. 任何形式的社会,只要有权力结构的存在,就会使算法带有一定的目的性,并且此种目的性也会由于算法和社会本身的不可控性,而造成难以预见的影响。

    看到最后真的蛮感动的,有这么多厉害的大佬都不只是在关心自己的个人利益,而是利用自己的视角来为全体人类尤其是还在成长中的下一代做思考,怎么说,算是野蛮屠宰场里人类文明的微光吧。

     6 ) 看完这部新出的口碑好片,吓得我马上关闭了朋友圈

    沉迷手机不可自拔,你再无隐私可言。”

    这不是《楚门的世界》,这是正在发生的现实。

    如果说有什么东西占据着现代人生活的大部分时间,答案无疑是手机。

    回想一下你每天会凝视着手中这个小小的机器多长时间?

    日前发布的《2020中国网络视听发展研究报告》中显示,截至2020年6月,我国网络视听用户规模达9.01亿;短视频已成为用户“杀”时间的利器,短视频以人均单日110分钟的使用时长超越了即时通讯。

    110分钟,将近2个小时。

    这不是我们的错,因为刷手机实在太有趣了不是吗?

    我们的注意力很容易被它吸引。

    当我们购物时,它会主动向我们推荐迎合我们喜好的单品。

    当我们观看有趣的视频图片时,它又会向我们推荐更多类似的内容。

    这一切甚至让人觉得,哇哦,手机才是这个世界上最了解我的!

    无论是和朋友吃饭时,还是在地铁上,我们总是习惯性打开手机重复着滑动、选择、滑动的动作。

    但有些人也渐渐发现,自己总有一种时刻被监控的感觉。

    有时在网上随意搜索的东西,甚至聊天时提到的东西,都会神奇地出现在平台推荐中。

    一些网站还会向你推荐通讯录中的用户,同时也将你推荐给你通讯录中的人。

    而注册时填写的个人信息,让这些平台对你更加如指掌了。

    那么问题来了,究竟是我们在操作手机还是手机在控制我们?

    这问题关乎一个经常被提起的热词:大数据。

    尽管每个账号背后却都是活生生的人,在大数据中你可能只是一串数字。

    你的言论、兴趣爱好、学历、住址甚至健康状况都成为了大数据海洋中的一部分。

    大数据对我们个人信息的盗取,算法对我们的监控,使得平台更懂你,从而也可以更精准地影响你。

    此外,社交媒体的使用,更是对人的心理健康有着不可忽视的影响。

    刷手机的时间越长,是不是感觉更丧?更容易焦虑?

    所以,问题到底出在哪儿?

    最近Netflix再出佳作,围绕这个与我们每个人息息相关的主题拍摄了一部纪录片。

    9月初上映的《监视资本主义:智能陷阱》大获好评,豆瓣评分8.6,被认为是今年网飞最好的纪录片。

    今天我们就来看看这部纪录片为我们揭示出什么样被隐匿的真相。

    监视资本主义:智能陷阱

    导演: 杰夫·奥洛威斯基 编剧:戴维斯·库姆贝 / 维奇·柯蒂斯 / 杰夫·奥洛威斯基 主演:杰伦·拉尼尔 / 罗杰·麦克纳米 / 斯凯勒·吉桑多 首播: 2020-09-09 片场:94分钟

    片中一群来自Facebook、Instagram、Youtube的前员工直面镜头现身说法,揭露了很多行业秘密。

    让我们了解这些软件是如何借助大数据和人性来令人上瘾,从而控制用户。

    片中有一句话相当发人深省:“如果你没有花钱买产品,那么你就是被卖的产品”。

    然而,这话可能真不是危言耸听。

    《智能陷阱》向我们每个人提出了一个很简单的问题:为什么这些社交 APP 都是免费的?为什么用户使用他们的产品却不用付钱?

    只要你稍稍思考就能看清楚本质。

    它们当然并不免费,是广告商在付钱。广告商为什么给这些公司付钱?

    它们付钱来交换向你(用户)展示广告,所以用户本身就是卖给广告商的“产品”。

    为此,网站需要更多的用户以及更长的使用时间。

    因此,用户的行为开始被监视、被预测,然后被有目的地引导。

    通过各种智能推荐算法,让人们的视野局限在它想你沉迷的领域里。

    潜移默化改变人的行为和认知。

    而对用户的预测就建立在大数据之上。

    来自哈佛大学商学院的教授莎娜称这种数据积累逻辑为“监控资本主义”。

    这种新型的信息资本主义模式,通过预测和修正人类的行为来获得收入并且控制市场。

    换言之,你在网络上所做的一切都被监控着、被追踪着、被评估着。

    具体到你停在哪一张图片上看了,看了多久。

    这些都是大数据的一部分。

    计算机通过这些数据做出预判我们行为的模型,拥有优秀模型的公司就赢了。

    我们做过的所有事情、点击过的每一个地方、我们看过的所有视频、点赞过的所有内容,这些数据都会被用来建造一个越来越精确的模型。

    有了这个模型,网站就能预判这个人的行为。

    甚至能预判什么样的情感更能让你产生共鸣。

    这一切都导致我们越来越离不开手机,除了睡觉,大多数时候我们都会不自觉地拿起手机。

    如果手机离开我们一时半刻,我们就会感到无聊、焦虑。

    只有两个行业把他们的客户叫做“使用者”:毒品和软件。

    但这着实不能怪我们,因为就连互联网公司的管理者也难以抵挡这种吸引。

    前Pinterest的总经理坦言,他在职时,即便回到家也无法停止刷Pinterest。尽管他有两个小孩需要他的关爱,但就是放不下手机。

    有一天他突然感到莫大的讽刺:他白天去工作,就是为了构建一个把自己当猎物的东西。

    放不下手机并不代表你自控力差,毕竟这世界上最聪明的一群人每天都在研究怎样让人成瘾。

    在斯坦福“劝服技术实验室(Persuasive Technology Lab)”,学者们主要研究如何利用所知道的一切心理学知识来改变他人的行为。

    很多硅谷的著名人物都曾是这个实验室的学员,其中也包括 Facebook、优步、推特、领英等公司负责用户增长的关键人物。

    劝服技术课现场

    《监视资本主义:智能陷阱》用一家五口的故事,更好地演绎了这一切。

    晚餐时,母亲提议大家都不玩手机,来一次面对面地交谈和安静的进餐。

    于是她把所有人的手机,放进定时1小时后才能打开的盒子。

    然而这顿晚餐显得有几分冷场,每个人都对对方缺乏耐心。

    没多久,女儿就忍不住用锤子把箱子砸开,取出了手机。

    立刻回到了社交网络的世界中。

    小儿子的手机不小心被凿破,母亲许诺如果他可以一星期不用手机,就给他换最新款。然而才失去手机几个小时,他就开始感到空虚和坐立不安。

    我们不禁要问,那些没有手机的时代,人们是如何生活?

    据研究表明,进入互联网时代后,青少年焦虑、抑郁、自杀明显高于从前。

    无论是点赞还是表示肯定的评论,都会使人获得一种多巴胺分泌带来的快感。

    人可以从手上一个小机器获得被肯定的满足感,但同时也会更情绪化,更脆弱。

    近十年来,美国少女自残与自杀率大幅升高。

    统计数据显示,美国 15-19 岁女孩的自杀率比世纪初提高了 70%,而 10-14 岁女孩的自杀率增加了 151%。

    1996年之后出生的孩子,是历史上第一代在初中开始使用社交媒体的人。

    他们更不愿意冒险,拿到驾照的比率下降了,出去约会过的人数骤减。

    整个一代人都更加焦虑、更加脆弱、更加抑郁。

    很多人如此在意一个虚拟的“赞”,如此在意陌生人的评价,如此在意自己在网络世界的形象。

    然而,我们真的需要在意一万个人怎么看我们吗?

    我们真的需要每隔5分钟就获得一个表示认可的赞吗?

    近年来网络暴力逼死人的新闻已经不绝于耳。

    这些服务正在杀人,也导致人们自杀。

    在美国,整容医生甚至发现一种新的病症:“图片分享畸形症”。

    指的是年轻的患者想做整容手术,让自己看上去更接近滤镜自拍中的样子。

    很多人已经逐渐失去了对真实世界的兴趣,更愿意活在网络上。

    很多这种技术公司有三个主要目标:

    1、参与度目标,增加你的使用时间,让你一直滑动屏幕;

    2、增长目标,让你不断回来,尽可能多地邀请朋友;

    3、广告目标,确保一切按照预期发展,公司尽可能地从广告上挣钱。

    每一个目标都由一个算法驱动,算法的作用是决定给你展示什么,让数据上涨。

    所以有人说躺着刷手机的肥宅生活是最自由的,殊不知此时的你也未必是真的自由。

    此外算法还会根据你的喜好来判断你,并向你推送更多相关内容。

    你越爱看什么,平台就给你推送什么。

    久而久之,你经常见到的就是些类似的观点,仿佛你相信的这些就是世界通行的真理。

    这在某种意义上也加深了你的偏见,假新闻和阴谋论因此得到更广泛的传播。

    《智能陷阱》里提到地平说的例子就是很好的证明。

    NBA 著名球星凯里·欧文曾公开表示他认为地球是平的,在遭到公众批评后他上节目道歉,称自己对地平说信以为真是因为在 YouTube 上看了很多阴谋论视频。

    “你点进一个 YouTube 视频,就像掉进了一个兔子洞,”欧文说,“然后平台就会给你推荐更多的此类视频,慢慢的你就信了。”

    虽说科技造福人类,然而事实可能没那么简单,社交媒体副作用大到已经无法忽视。

    讽刺的是,即便是这些算法背后的工程师,也很难摆脱被算法操控的命运。

    他们创造了这些,最终却不得不写个程序来帮自己戒网瘾。

    整部影片的观感可谓触目惊心,但也并非全盘否定科技进步带来的好处。

    它试图提醒人们重视对这个新兴世界的监督,以及立法层面的巨大缺失。

    毕竟手机公司有无数关于你的敏感数据,我们必须保证他们不会利用这些数据做错的事。

    近几年人们经常谈论未来的人工智能可能会毁灭人类,而事实上人工智能已经在运营着当今世界了。

    它未必是《终结者》中的机器人,却是威力更大的神秘存在。

    从20世纪60年代至今,计算机的处理能力已增长了万亿倍,我们身边没有任何其他东西以这个速率增长。

    而作为人类,我们的大脑根本没有丝毫进化。

    人类正在面对着百万年来不曾应对的局面:一个小小的屏幕背后的上千名工程师和超级计算机。

    这个世界将会去往何方?人类可以扭转局面吗?

    需要明白的是:我们是使用工具的人,绝不是工具操纵的对象。

    也许“觉醒”,只是第一步。

    *本文作者:RAMA

     短评

    互联网是人类文明的硕果还是浩劫?这是一个问题。互联网发展太快,而互联网用户运用它的智慧却太慢。它几乎成为现代人剪不断的脐带,每个人都以为这根脐带为我们输送养料,却很少发现它也在吞噬我们的时间,消耗我们的生命。互联网背后是不断将我们异化的数据和图形,是将用户打造成韭菜的智能工具,而你我是它们手中的行货。尼采说,“在自己身上,克服这个时代。”然而,这多么困难。最有意思的是,看完这部纪录片后,我发布的信息也会成为互联网内容的一部分,不小心浪费了别人的时间。

    7分钟前
    • 尘飞扬
    • 推荐

    最后还是把问题还原到商业模式和经济上去了 也就是说 不是简单呼吁大家自己控制社交媒体的使用就可以解决根本问题的 不过很有意思的是… 看完片子之后 大家还是屁颠儿屁颠儿跑到社交媒体上来打分了😂 这和竞争关注的结果其实没有本质上的区别吧 人生而愚蠢...也是没办法的事

    11分钟前
    • ripley
    • 力荐

    聚众吸牍哪家强 网飞找来这群人一个劲戳别人脊梁骨 没种把自己的5秒跳转下一个视频算进去

    16分钟前
    • Robo Captain
    • 推荐

    在网飞纪录片序列中算不上惊艳,内容都能想得到,有个别地方倒是有启发。其实社交媒体不是重新发明了人性,只是顺应人性被发明出来。

    19分钟前
    • frozenmoon
    • 还行

    中文翻译的标题线路很正确嘛

    24分钟前
    • 里拉
    • 力荐

    前半段谈的是个人的成瘾性,后半段谈到了对社会和政治的影响,甚至还提到了香港问题受到了推荐算法的影响,实在是强烈推荐的纪录片。推荐算法让人类看到更多他想看到的信息,而不是正确的信息;当算法没有被操纵的时候,假象会被传播和放大的更快,社会群体的分化会更严重;当被操纵的时候,它会成为比以往更高效的舆论控制工具。

    28分钟前
    • 流浪四方
    • 力荐

    朋友圈已经关闭了好几年,也不用微博和fb的我感觉自己还是有点觉悟的。

    32分钟前
    • 席德
    • 推荐

    三星半吧。这个片子一边谴责社交媒体蛊惑人心,一边也通过背景音,模拟场景,动画,拼命传输自己想传达的意思。有点讽刺

    35分钟前
    • C&TUTU
    • 还行

    能请到离职的脸书 谷歌 twitter高管或功能创始人来搞一部揭露社交APP之罪的纪录片确实牛逼!!看影片开头好多工程师已经在担心律师函了。 我们以为的AI危机(人工智能)是电影中类似机器人入侵的画面,其实,人类早已被AI奴役好几年了,它们以智能手机APP的面貌出现在我们生活中,吃掉我们的时间,夺取我们的注意力,令我轻信、空虚、偏执甚至被利用…… 就连创造出这些APP的工程师们——这个AI统治者的创造者们都承认有手机上瘾症。if you are not paying for the product, you are the product.You would not realize it's a Matrix if you Are in the Matrix.

    37分钟前
    • 七姐Claudia
    • 力荐

    一边抗拒一边沉迷,也是无解了。

    39分钟前
    • 桃桃林林
    • 推荐

    通过海量的数据加上对用户个体的行为记录,最终用户个体不再特殊。你的行为可以被预测,你的心理已被掌握,你已经无所遁形。在IT巨头面前,你只是一个可被盈利的工具。 --你以为你想买的东西其实是巨头想卖的东西,你想做的事情是巨头暗示你做的。下篇讲述 在网络环境中,虚假的信息传播的更快,其中人工智能的推荐起到了加速作用。 推荐系统的智能化是的信息发送方变得极化,同时是的接受的信息变得不再全面的。。。。

    43分钟前
    • W.史密斯
    • 力荐

    最讽刺的是你之所以能看到这部片子,多半也是因为它被网飞自己的大数据和算法推到了用户主页。这种感觉就像是有天迈克尔·贝跑出来拍了一部【电影艺术是如何被滥用CGI特效的好莱坞大片毁掉的】纪录片一样。

    47分钟前
    • Laplace Demon
    • 推荐

    “在整个人类历史中,每次有事情变好,都是因为有人站出来说:“这太蠢了,我们可以做的更好”。是批判者驱动了改进,他们才是真正的乐观主义者。我们正飞速走向毁灭,需要一个奇迹才能让我们回头,这个奇迹就是集体意识,再足够的公众压力出现之前,这台机器是绝对不会回头的。”

    49分钟前
    • 亚比煞
    • 力荐

    影片翻译成”监视资本主义“太符合中国上层领导了,其实就是讲了社交网络怎样赚钱、怎样改变和监视用户、大数据统治的,其影响会延伸和触及到人性、进化、政治竞选等领域。但人类历史中的谎言、煽动、阴谋、阶级等现象,并不是网络时代就特有的,只是网络时代让这些现象具有更大规模、更快的反应而已,但不能把原罪归于网络。

    52分钟前
    • 炸酱面
    • 还行

    就提一个capitalism会死吗

    55分钟前
    • soyoungsogone
    • 还行

    “是批判者推动社会变得更好,批判者才是真正的乐观主义者。”

    56分钟前
    • 烟雨如花转
    • 力荐

    可能是今年 Netflix 最好的一部纪录片,无论是 have no clue 的大众还是互联网业内工作人员,都能从中得到新的启迪。一段虚构故事结合湾区大佬们和学者们的访谈形式也耳目一新。Just fucking watch this right now!另外好多差评真是男言之瘾重灾区…

    58分钟前
    • 椒盐豆豉
    • 力荐

    某种existential crisis的压迫感沉重到可以将其归类恐怖片的程度:迫真humanity的一个至暗时刻。毋庸置疑新自由主义的放任默许了它们的野蛮生长。日渐两极化割裂的民主世界,中产的消亡,功绩社会里的精神暴力,抑郁及自杀率的攀升,ultra-right/left异军突起众多吊诡背后,总能追溯到科技巨头的鬼影。今年的BLM可谓一个高潮,空前的社会撕裂,内战的恐惧开始在北美大陆扩散,然而那种担忧早已经在太平洋对岸成为了现实,诸如废青和武统的呐喊此起彼伏,落入集权独裁手里的社交媒体正上演着数亿人的《楚门的世界》。

    1小时前
    • 帷野久
    • 力荐

    我一直是更亲近Yuval Noal那种对社交网的防御心,最近他跟唐凤的对话中,唐女士更接近Bill Gates,她们对Code is law的信任是基于他们对科技的掌握,略傲慢的盲目。人类善于发明创造工具,却总是不能智慧的使用好它,socialmedia被创造出时的工具属性越来越模糊,连接一切变成绑定一切,我们都在失去个人专注力的同时被训练的自动贡献出时间来替科技公司创造价值。见惯了友邻放弃包容,讽刺刻薄的针对陌生人,哪怕对方只是没把咖啡馆当图书馆对待产生噪音。我们大部分人,都忘了我们用社交网的初衷了,我们只是停不下来了,这不对,要自省。

    1小时前
    • 姜小白
    • 力荐

    突然觉得,我如果能活到八十岁,说不定可以亲眼看到这颗星球毁灭……

    1小时前
    • 西决
    • 力荐

    Copyright © 2023 All Rights Reserved

    电影

    电视剧

    动漫

    综艺