监视资本主义:智能陷阱

HD中字

主演:杰伦·拉尼尔,罗杰·麦克纳米,斯凯勒·吉桑多,卡拉·海沃德,文森特·卡塞瑟,马蒂·林赛,Ena Henderson,Chase Penny

类型:电影地区:美国语言:英语年份:2020

欢迎安装高清版[一起看]电影APP

 量子

缺集或无法播,更换其他线路.

 红牛

缺集或无法播,更换其他线路.

 非凡

缺集或无法播,更换其他线路.

 剧照

监视资本主义:智能陷阱 剧照 NO.1监视资本主义:智能陷阱 剧照 NO.2监视资本主义:智能陷阱 剧照 NO.3监视资本主义:智能陷阱 剧照 NO.4监视资本主义:智能陷阱 剧照 NO.5监视资本主义:智能陷阱 剧照 NO.6监视资本主义:智能陷阱 剧照 NO.13监视资本主义:智能陷阱 剧照 NO.14监视资本主义:智能陷阱 剧照 NO.15监视资本主义:智能陷阱 剧照 NO.16监视资本主义:智能陷阱 剧照 NO.17监视资本主义:智能陷阱 剧照 NO.18监视资本主义:智能陷阱 剧照 NO.19监视资本主义:智能陷阱 剧照 NO.20

 长篇影评

 1 ) 【汇总】片尾的一些建议

√ 在手机上关掉/减少各种“通知”,大部分“通知”既不及时也不重要。

√ 放弃Google搜索系统,改用Qwant( //www.qwant.com/ )。

Qwant是一家法国的搜索引擎,它承诺执行非常严格的隐私条例,并保证绝不获取使用者的任何信息,也不会在用户浏览网站时,搭载任何可能泄露使用者身份及位置的Cookies文件。Qwant将搜索结果分成 WEB, NEWS, SOCIAL, IMAGES, VIDEOS, SHOPPING 几个部分:
Qwant官网简介

补充,类似保护隐私、不会主动泄露cookies的搜索引擎还有 DuckDuckGoSearxStartpage 等。网上有许多这样的介绍和测评,随手搬运一篇《 搜索引擎详细测评(Google, Startpage, Bing, DuckDuckGo, metaGer, Ecosia, Swisscows, Searx, Qwant, Yandex, and Mojeek)》(2020-02-15)

√ 不看YouTube(此处可以等效替换)推荐的视频,要看什么自己选。

√ chrome有许多的拓展插件,可以为你屏蔽那些推荐(针对外网的比较多,希望内网也多多开发)

一些例子

√ 在分享信息之前,用你的搜索引擎先去核准下事实(fact check)。对于容易激发情感的内容,要高度重视。

√ 在社交媒体上去关注一些自己不认识、意见相左的人,有意识地去获取和自己不一样的声音。

√ 可以自发地设立“家规”:孩子不能用社交媒体。(很多业内的技术人员是不让自己的孩子用那些的。)

√ 可以自发地设立“家规”另三种:

每天到了固定的时间,手机等电子设备不能带进卧室(例如睡前半小时,把所有设备都请出去);

高中(或16岁)之前禁用社交媒体;

提前与孩子商讨出一项“时间预算(time budget),比如:每天你打算在这些设备上花多久?你觉得多长的时间是合理的?正向沟通、相信孩子,往往可以得到一个合理的时长预算。

√ 下线,多享受线下的现实。

 2 ) 認識這個世界

看完這部片,渾身起雞皮疙瘩,我歸咎的理由是真正意識到目前社交媒體對於社會無法衡量的負面影響,但糾結的是,我需要這樣的社交媒體提供一種存在的意義,不然就會陷入一種虛無主義跟矛盾之中.

片中的訪談提到:Pinterest的設計者,設計Pinterest更人性化,更讓人願意去使用,但交換的是自己也在無形中被影響,我是個生意人,我的工作就是讓我去影響其他人更願意購買我的產品,但是但是,我需要更了解我的消費者跟這個世界的現實,以去達到我個體的最大利益,而社交軟件是一個非常好用的工具,也是一個非常Powerful的工具,因為我在獲取這個世界的更多資訊的同時,我同時出賣了我自己的靈魂.若我不使用社交媒體或其他工具,我會更困難的達到我個體的最大利益,例如金錢,但我在使用社交媒體的同時,我同時背負社交媒體帶來的負面影響,例如無意義的碎片畫資訊充斥著生活,如果我不接受這些無意義的碎片,我又如何獲取有用的資訊.

這是一個非常衝突的事情,在看這部片之前,我感覺到社交媒體跟網路有些不對勁的地方,但我說不出來那是甚麼,我在使用的同時獲得了短暫的快樂,但糾結的是我知道這對我長期的影響是負面的,對於獨立思考的扼殺.我花更少的時間去閱讀跟觀影,而選擇獲取更短暫的快樂跟資訊,也許人類這種生物就是這樣被設計的,不論是被上帝或是被進化論設計的,我們更傾向獲取短暫的快樂,但是人類這種生物,之所以還沒把自己搞死,是因為我們有一定程度的自省能力,我們會發現短暫的快樂無法長久維持,但現在的社交媒體和網路是一個有史以來最強大的敵人,遠大於電視報章雜誌所能企及的地方.

我之所以描述失去社交媒體會導致虛無主義的原因是,在我的認知裡,例如薩特的存在主義提供了一個讓人類找到意義的方式,我們在一張白紙上作畫,人生結果就是我們最後完成的畫作.不論我們滿意於否這個畫作,這是人類生存下去的動力,從另一方面來說,一種不斷的進步感讓我們感覺到我們不停地作畫把畫作畫得更好,而我們從中獲得了成就感使自己不再詢問存在的意義是甚麼.但失去社交媒體導致了我無法和現在21世紀感到連結.失去連結很大的概率會導致我在社會認同的成功上失敗,而我生在這個社會中,我無法避免的以某種形式認同了社會定義的成功.失去了這種認同感,也會導致自己找不到生存的意義.

這是一個雞生蛋蛋生雞的問題,我覺得這個問題無解,而是如何在這個無解的問題中,找到自己舒適的位置,做完自己最滿意的畫作.

結論:我需要找到一個更好的模式,把自己放置在這個資訊爆炸的時代,能在其中找到自己的位置,減少網路對自己的負面影響,而取的更多網路對自己的正面影響,我同意網路或社交軟件是好東西,如片中所說,當初設計這些東西的人,更多是為了更美好的社會,而無形中創造了一個怪物,這個怪物是有能力摧毀幾千年來創造的文明,我們如何利用這個怪物的能力創造更美好的世界,同時限制他能摧毀其他一切美好的事物,很多人認為我們在往1984的世界狂奔,我卻認為我們正在往美麗新世界狂奔,一個我們情感上不想要的烏托邦,我不是個完全理想主義者,我清楚知道,所有人的共同最大利益,就是我的最大利益,如博弈論所討論的,但個性導向導致我是一個精緻利己主義者,我可能無法改變,我也不想改變,我只想把自己放在這個舒適的位置,完成我自己期許的畫作.

 3 ) 画外之音才是难以忽视的真相:简评《监视资本主义:智能陷阱》

Netflix 的《监视资本主义:智能陷阱》(The Social Dilemma)很可能是近几个月全球最热门的纪录片。正如标题所示,此片瞄准社群平台(Facebook, Twitter, Instagram 等)以及背后的大公司,指出它们如何透过各种设计(包括算法)来让用户上瘾,不只在个人层面把隐私拿去兜售,更在社会层面让民主陷入危机。这部片汇集(或者说,整理)过去五年间各界对于社群平台的批评和反省,但这其实也意味着:它没有讲什么新东西。在这样了无新意的情况下,还能引起热潮和讨论,反而映照出我们一直以来的几个思考盲点。

首先,我们可以问:为什么一谈到社群平台的「操弄」,我们就觉得很可怕甚至十恶不赦?在我看来,我们之所以畏惧或反对操弄,是因为一个深埋脑海的既定观念:人生而自由——人类可以自由做决定。这也是十八世纪启蒙时代以来支撑现代社会的根本假设。问题是,这样的人类真的存在吗?不管是行为经济学,还是脑神经科学,都在逐步否定——即使还没完全否定——这种人类形象。手握热茶杯,待人接物就会比较温暖;读过关于老人的文章,走路就会不自觉变慢。人类太容易受到各种因素影响,而且多数时候我们并不自知。

影片提到,设计师使用「强化」的技巧来制作「用滑的」动态墙,让用户着迷到放不下手机。这个「强化」的原理,是心理学家 B. F. Skinner 发现的——他利用鸽子做了大量实验。如果社群媒体让人上瘾,那么这件事的启示很可能不是设计师有多邪恶,而是人类根本没有比鸽子高明多少一直抱怨社群平台利用「人性弱点」其实效果不大,关键在于如果这些弱点根深蒂固,而且人类从未自由过,那么我们是不是应该要思考如何「正面利用」它?为什么我们不用同样的技巧,来让学生着迷于阅读、音乐、运动、或者艺术?

再来,我们可以问:为什么大家对于社群平台的运作原理这么惊讶?社群平台会收集使用者的喜好,以此为依据来调整或提供信息与广告,因此我们比较像产品而非顾客,这件事早已是老生常谈、甚至陈词滥调,但多数人仍然不知道,尤其是大量使用社群平台的青少年。这意味着,我们需要有针对「科技素养」的教育,但这种教育不是科普——科技素养要让学生了解的,不是手中科技运作的「原理」,而是设计的「逻辑」。

学生不需要知道手机里面的半导体组件、程序语言、或者薄膜技术,但要知道操作的各种机制是什么、还有开发和经营的经费从何而来。熟悉手中科技的设计逻辑,我们才能真正「使用」科技,才不会不知道可以关掉个人化广告、可以关闭位置追踪,或者连从哪里关都找不到。一旦知道社群平台只是重复喂养我们的喜好,我们就会知道「按赞」是在告诉算法「多给我一点」,那么为了维持信息健康,我们自然会更小心、甚至按反对意见「赞」。

最后,应该问:为什么我们这么担心社群平台正在摧毁民主?片中批评,社群平台正在制造「极化」(polarization),让抱持不同价值观的人群针锋相对、无法沟通。问题是,沟通是可能的吗?很多时候并非如此——只要想想你/妳是否成功说服你/妳的父母。换句话说,我们担心社群平台摧毁民主,是因为我们一向以为民主的核心是沟通、妥协、相互理解、达成共识,然而实际上,这可能是个误解,民主并非我们所想。

如同脸书总部的反对文(解释文)所言,极化现象早已存在许久,社群平台是非战之罪。根据政治理论家 Chantal Mouffe,政治的核心其实是对抗,而不是共识。简单来说,如果我们希望成为一个群体(我群),不可能没有边界,因此总是有「他群」存在——必定有人不同意我们,也必定有人被排除。换句话说,极化全然无法避免,社群平台只是让这种长期被我们忽视的政治核心暴露出来罢了。因此,民主不在于寻找共识,而在于鼓励和制度化非暴力的对抗。就此而言,显然问题不在社群平台加强极化,而在于我们需要重新理解和安排民主,才能安置早已无法回头的网络文化。

我不会说《监视资本主义:智能陷阱》不值得一看,毕竟对于许多人来说,这可能是第一次理解社群平台是怎么运作的。但我们确实应该深思,甚至反省,我们的不安与愤怒从何而来,究竟是这些社群平台的大公司太过邪恶,还是这些社群平台正在挑战我们习以为常的假设?很多人说看完这部电影感到绝望,但或许,希望的破灭,才是发现真正问题的开始。

* 原文刊载于《社技哲学.TECHNOSOPHY》博客。

 4 ) 作为在互联网公司搬砖的data scientist,我有话想说

挺讽刺的,看这部纪录片的时候手边正好摆着product manager必读书目 -- Hooked,讲的就是怎么创造出人人都上瘾的产品(speaking of dilemma,作者最近又写了一本新书讲如何保护自己的时间不被social media占据)

纪录片前三分之一正好讲的也是这个部分:互联网公司为了得到更多的用户从而实现盈利目的,投入了不计其数的资金去研究怎么能让用户上瘾。基本上呢,互联网公司的盈利模式正基于此,足够的screen time,足够的广告。纪录片本身没有什么新颖的观点,比较触目惊心的是美国青少年自残自杀人数自2010年开始增加,social media上许多功能带来的后果在初期没人能想得到。

当然,互联网不光影响了高中生的心理健康,由于各种算法只会通过点击来判定用户兴趣,在以增加screen time/stickiness为前提的商业模式下,许多假新闻阴谋论得以广泛传播 - 人们活在自己的世界里,目之所见全是相同的观点,每个人都有一套自己的是非体系,polarization越来越严重。

这和‘被困在系统的外卖小哥’那篇文章不谋而合。因为数据有限,算法仅能够根据用户有限的实时反馈:点击、点赞、用户时长等指标进行提高,而算法的设计者们往往不会也无法预料到可能产生的负面影响,导致了今天的局面。看到这个地方我很好奇导演会怎么来探讨可能的解决方法,毕竟大家都知道这是个问题,可真要解决起来太难了。

导演也知道,于是他只花了最多十五分钟(包括片尾鸣谢),即全片16%的时间,非常非常非常蜻蜓点水的讨论了一下。

监管制度是一定需要的,可是假新闻要怎么监管呢?没说。谁拥有最终的话语权可以为假新闻盖棺定论,是政府,是互联网公司,还是用户自己?任何一方如果直接干涉,那又该怎么保证不影响言论自由?说到底,作为用户,到底谁才能决定我看到什么?影片中把互联网公司的推荐算法跟人口贩卖(和许多我记不起来的黑色产业)对比,可问题在于,什么是真什么是假可比人口贩卖是好还是不好难鉴定许多许多。再加上监管制度成型中各种power play,最终成型的会是什么样子也挺难说的。

在我看来,互联网、科技、算法等等最大的难题在于,这个产业本身是高度分散的。由于互联网本身的特性,任何一个小小的产品改变能在上线的一瞬间影响上亿的用户。可是作为参与这一改变的人:设计师、码农、产品经理、数据分析师等等,他们和你我一样,都是普通人,无法预料到点赞功能会导致青少年焦虑,无法预料到优化送餐时间会导致外卖员的困境。如何在产品设计、算法设计的过程中考虑到可能产生的社会影响才是每个互联网人应该上的一堂课。

可是好遗憾,这部纪录片根本没有探讨可能的解决方法,唯一有点意思的是片尾鸣谢时每个人提到的自己对抗算法的方法 - 这明明是应该放进正片的内容!

总的来说,纪录片花了过多篇幅来讨论现象,有sensationalism之嫌,而对于立法的困难程度、互联网公司该如何自省方面的讨论少之又少(我很期待看到这些的!比如如何在算法中融入社会学)。最后吐槽一句,netflix的纪录片好像都有点煽动情绪大过摆事实讲道理,看看本片标题,也挺讽刺的。

 5 ) 又开始疯狂讲话

短评里对这个片子的微词多着眼在影片内外的割裂对立。 但我倒是在观影过程中忍不住跑神头脑风暴了n次,这么看,影片对我就不仅仅是老生常谈了。 虽然没法按顺序按逻辑梳理我的wandering mind,就想到哪说到哪吧。 第一个反思是:(只)运用抽象语言

我感到自己表达能力不足并意识到表达力的重要性,不仅源自现实学习工作的需要,和社交网络中意见领袖的影响力飙升也脱不了干系。我不只一次对着舌灿莲花的博主感叹:“怎么这么会讲!”“太会讲了吧!”于是暗自发力练习讲话。

但最近,一个问题引起了我的注意。我发现我把精力都集中在抽象语言的运用,但忽略了具体叙事和细节描绘。事实上,我爱的那些博主,ta们说话的魅力也常常表现在针对具体事件形成观点输出和论证,偶尔援引其他具体事件也是出于论据需要。

在传播场上,我们很容易发现,观点跑得比故事快,有些观点甚至会浓缩成迷因长久地流动在社交空间里。而那些能混得开的故事往往是以观点容器和引爆器的身份占据了大众视野。这个世界,观点已具有比事实更重要的力量,而抽象语言则作为观点的基础占据了我话语实践的绝大部分。而影片也是以这种方式展开。

话语空间铺天盖地的抽象语言是不是削弱了波兹曼在《娱乐至死》里对批判性思维丧失的担忧呢?当然没有,事实上,它和李普曼在《舆论》里提到的“象征符号”遥相呼应,以抽象泯灭了那些具体生动复杂的情境、细节和差异,以口号式的单板逻辑满足了个体对“独立思考”的情感需要。

因此,这也向我发起了警告,尝试去说一些具体的故事,以民族志而非大数据的方式去看一看这个世界,甚或在一些时候抛弃掉旁观者的角色,只进入其中说话。(当然,这条除外🤥)

第二个反思是:我在意点赞吗?

即使我对点赞也很敏感,享受着每一个认可带来的即时满足,但我似乎不完全被点赞影响着心情。事实上,由于更多人活跃在朋友圈,偶尔发一条动态时,甚至会因为要点掉消息提醒而感到疲乏。对于公共空间的讨论也如是,在一些过度投入的评论回复的来来回回里,我会迅速感到疲乏。而其他一些骗取我注意的策略:通知栏、奖励性广告都对我无效。我玩不来抖音,也不喜拼多多(恨死它总因误点而自动下载)。而在我沦陷的那些平台里,我也时常产生厌倦到不想继续浏览的思绪。

但是,我不耍手机,还能做什么呢?不论我关不关注点赞,长期活跃在虚拟空间里确实挤兑了我对其他活动的意愿和想象。现实连接的淡漠致使我仍然会不停刷刷刷,刷到眼睛不得不合上。手机不再令我快乐,却也剥夺了我从其他活动获取快乐的能力。

所以,如何去拓展现生,并激发出长久为体验过的愉悦(不依托在社交平台上的炫耀),是亟待实现的下一阶段。

第三个反思是:两极化

前两天刚因为路温1900的视频跑去知乎和别人battle“女拳”在现阶段是否应该取缔。我倒不是想借这个例子说明两极化确实存在且日渐严重,而是好奇,沟通的可能性。事实上,任何一个观点呈现在面前,都是在trigger你脑海里的过往经验和认知,但在虚拟讨论空间中,我们对另一个人的脑内图景一无所知。是否存在一些最基本的共性,可以为双方能彼此听懂的讨论提供策略?

这个问题也让我想到了robber's cave那个实验,被随意标签的两组儿童在交往过程中自发产生了对本组的高认同感和对另一组的憎恶,而促进两组儿童collaborate的唯一办法是树立起第三方敌人。啊哈,牛嗷。我们在多大程度上是自主选择了某一共同体,又在多大程度受到共同体支配行为与思想?我们应该如何培育自主性,如何抵御这种支配?还是说我们的确可以利用共同体实现一些抱负?

这可太复杂辽,在这里仍只触及了边边。脑容量不够,还没法顺畅地阐释这个问题,再讲下去又要头痛咯~

就这样吧。

结束

 6 ) 关于技术的非客观性与不可控性

道理我都懂,可是谁能在拉屎的时候不看手机呢?

言归正传,以前一直叫嚣“技术中立”的我这些年来对技术,尤其是巨🐂🍺的技术,真的是越来越保守了。既然略微涉及到了自己专业方面的东西,不妨稍微多写点记录一下自己想法的改变,以及近期的一些思考,主要想说说两点,技术的非客观性和不可控性。

非客观性

任何对数学或是计算机科学稍有了解的人应当都知道,算法本质上就是一堆数学和运算,定义明确,不存在任何欺骗性和模糊性——给两组一样的输入,就会出来两组一样的结果(起码分布相同)。算法是如此地“笨拙”和“老实”,不管你是资本家还是无产阶级,算法不受贿也不行贿,只做它该做的事,这还不能被称为客观吗?

机器学习有个子领域叫机器学习公平性(machine learning fairness),专门研究算法中的偏差对社会公平性的影响。这个领域的研究经常会提到COMPAS数据集,里面记录了一些被告的个人特征信息与犯罪服刑记录等。研究人员用这个数据集去训练了一个机器学习模型,来预测某人未来犯罪的概率,发现训练出来的模型更倾向于错误地将黑人预测为容易犯罪。数学上,这种偏差一方面是来源于训练数据的分布,另一方面则是来源于一些复杂的因果关系,比如法庭上由于种族歧视等黑人更容易被判有罪。这些问题其实都可以通过技术手段,比如重采样或是引入工具变量等,来克服或是减轻,但它背后更本质的一个问题是:为什么我们的社会需要预测一个人是否有可能犯罪?有很多科幻作品比如PSYCHO-PASS都讨论过这个问题,包括社会心理学上也会从自我实现预言的角度研究该种预测对个人和社会所可能带来的影响。这里只做个简单的想象作为一个小小的思维实验,假设我们训练一个模型来预测犯罪,并希望它能最准确地找出潜在犯罪者,同时又训练一个决策或行动模型来逮捕最有可能犯罪的人,随着两个模型互相产生数据互相迭代,最终“犯罪”这个概念将完全由模型定义。当我们为机器学习算法设定目标时,即准确预测潜在的罪犯,我们是在默认地假设一个人是否犯罪是预先就被决定并且不会为环境所改变的。这种假设和目标的设定本身就存在巨大的问题,其反映的是目标和算法的设计者对于人类社会的偏见。

我们知道所有算法的提出和应用都是为了优化某个目标和解决某个实际问题,但如果我们的目标和问题定义错了呢?我们还要继续使用这些算法吗?问题错了,算法再怎么提升也是白费,it's not even wrong. 刨开它想要解决的问题,算法本身毫无意义,而这些问题被定义的方式,恰巧就反应了问题定义者对于一系列事件乃至整个世界的看法。Algorithms are not objective,它们是一整套价值观的投射,只要我们还在一个人的社会里,算法与其背后的利益关系就不可能也不应当被割裂开。可惜的是,在现在的学术界和工业界,绝大多数全世界最聪明的大脑关注的仍然是如何在特定目标下提升算法的表现,而我们的问题是否定义正确,我们的优化目标是否设计正确,相对来说却不太有人讨论。

这里我想到之前上的一位研究 Science, Technology and Society(STS, 中文还没有翻译)的老师的课,他论文里有一段关于优化算法的讨论特别有意思。优化算法我们一直都在学,求最值、线性规划、凸优化、非凸优化、动态规划、整数规划诸如此类。但实际上,“优化”是一个西方资本主义社会所创造和强化的概念,它的背后是一套利益最大化的逻辑,这在非西方世界的传统价值观中是罕见的。随着大航海时代与殖民主义、帝国时代的演进,这一套优化的逻辑也慢慢根植进了各个民族的思想,也写进了不同国家的教材。我并非是想说“优化”这个概念不好,或者我们不应该研究优化问题,相反,优化问题很重要,并且能建模很多实际问题。但正因为它能建模太多太多的实际问题,我们才更应该加以注意其适用范围,比如一个班里的同学或是一个组里的同事相互竞争,搞成绩最大化利益最大化,硬生生地把非零和博弈考虑成了零和博弈,这种内卷或许只对补课机构和资本家有益。

不可控性

当影片把我们所面临的问题赤裸裸地摆在面前的时候,我才真正意识到并惊讶于,一个我们无法理解、无法控制、拥有巨大预测世界和改变世界能力的技术,竟然早已悄无声息地融入到了我们生活的各个角落。我们一直在思考,如何提升人工智能的极限,或是AI还需要多久才能取代人类,我们看到的始终是AI在人类强项上的羸弱,如关系推理、结构生成等等,就好像AI仍然完全在我们的掌控范围内。但实际上,我们常常忽略的一点是,AI在人类的弱项方面已经做得非常好了,并且我们对其知之甚少。以前中学的时候和同学聊过一些关于基因工程、人体改造诸如此类的话题,结论是这类技术太过神秘、太过强大,在伦理道德和法律条文完善之前就不应该去触碰。现在想来,基因改造相对于复杂的算法来说,或许就是个弟弟。我说“复杂的算法”,并不是因为算法本身的实现很复杂(当然确实也挺复杂的),而是因为现在的很多算法,比如神经网络,本身就是一个“复杂系统”。

我个人认为复杂系统或者混沌理论是人类在20世纪所提出的最具革命性的概念之一,起码本科接触到这个概念之后,我的世界观迅速就改变了很多。复杂系统(complex system)简单来说,就是系统中有多个个体,它们相互之间会有一些交互,这些个体本身的行为模式或简单或复杂,其间的交互也能以各种形式呈现,可一旦当它们构成系统,整个系统中可能就会涌现出一些难以预见的行为模式。复杂系统或者混沌现象在我们的世界中无时无刻不在呈现,比如气象系统,洛伦兹当年就是因为发现自己用微分方程无法预测天气,而开创了这整个领域,大家常说的“蝴蝶效应”,其实指的就是微小的空气扰动也会在未来大幅影响整个气象系统的运行这一现象。除此之外常见的例子还有大脑活动、心脏跳动、股票市场的波动等等。康威在70年人为构造了一个复杂系统并将其命名为“生命游戏”,这里找到了一个模拟器,感兴趣的话可以玩玩。关于复杂系统和混沌理论的研究瞬间就颠覆了17世纪以来的牛顿范式(虽然爱因斯坦早几十年已经从时空观的角度颠覆过一次了),所有的研究结果都告诉我们,这个世界不是你推动小球,小球就会获得一个加速度,然后像你预想的那样运动——当这个世界由千千万万个小球组成的时候,哪怕你完全知道每个小球的受力情况,你也无法预测整个小球系统将会怎样运行。当然,刘慈欣的三体早就科普过,只需要三个小球,就能使任何人、任何计算机的大脑彻底瘫痪。之前看过BBC的科普纪录片《神秘的混沌理论》觉得很不错,里面也提到了在如此混沌的世界中,数学和科学还能为我们做些什么,答案就包括统计学等等,扯远了。

回到技术的不可控性,这里想重点讨论一下深度学习掀起的神经网络浪潮。神经网络(neural networks)是计算机科学家们仿照人类大脑的结构所提出的一个计算概念,在计算中,每个节点都被看做是一个神经元,它接收上游神经元所传来的信号,并在一番处理之后将结果信号再传递给下游神经元。单独看每个神经元的行为其实是非常简单的,就是一个带权求和再套一个激活函数(现目前最常见的激活函数就是ReLU,它保留正的数字并将负的数字变为0)。再看神经元之间相互的关系,其实也非常简单,就是计算结果的传递。然而就是这么一些简单的小小的计算神经元,却能从系统层面上发挥令人意想不到的作用——人脸识别、图像生成、阅读理解…很多理论上的工作都尝试去解释神经网络的运作机制,但目前还没有人敢说他真正地理解了神经网络。其中一个比较有代表性的讨论就是神经网络的泛化能力。泛化能力指的是模型把从训练数据中所获得的知识,应用到未曾见过的样例上的能力。做个简单的类比,就好像是你通过刷题来准备期末考试,如果相同知识点的题,刷题时你学会了,考试时你也能做对,那么你的泛化能力就很好。传统机器学习认为模型的参数或是可变性越多,泛化能力就越差。这就好像是你的记性特别好,过目不忘,那么为了做对题库里的每一道题,对你来说最省时省力的方法就是把所有的答案都完全不加以理解地给背下来,但到考试的时候你就会傻眼了。神奇的是,神经网络并不遵循这一规律,去年OpenAI公开的 GPT-3 语言模型中共有1.75兆个参数,但它在下游任务上的表现却完全暴打之前的模型。近期的一些工作比如 Neral Tangent Kernel 对此细致地进行了理论上的阐述,大体上讲,就是当大量神经元组成神经网络后,整个复杂系统就会涌现出一些新的性质。目前不管是学术界还是工业界,都把神经网络当作黑箱在使用,没有人知道这个黑箱中究竟在发生些什么,更不用说有谁能够做到精准地控制黑箱。

更加令人沮丧的是,神经网络等技术的复杂性还只是不可控的一方面,而另一个不可控因素就是人类社会。人类社会由许许多多的个体组成,个体之间也会经由社交产生各种互动,是一个典型的复杂系统。在人类社会的历史中,我们可以看到很多群体行为的涌现,如政党的形成、经济系统的构建、革命与暴乱等等。如此一个复杂系统本就已经够社会学、经济学、政治学、心理学等学科研究的了,而我们现在还要将复杂的神经网络运用到复杂的社交网络上,其结果想也不知。就如纪录片中所说,这些大佬们在开发产品的时候最多也就考虑了用户粘性等跟商业挂钩的指标,而诸如阴谋论、假新闻的流行,还有意见的极化和青少年成瘾等负面影响,都是在最初的产品开发时所难以完全预见的。至此可以看到,在我们将越来越多的权力交付给人工智能时,情况已经愈发地失控了。

最后

尽管快到末尾时大佬们把AI技术、社交网络等带来的问题归因为商业模式的运作,包括整部片子的译名也被加上了“监视资本主义”,但这些问题的根源绝不仅仅只在于经济形式——again, it's all about power moves. 任何形式的社会,只要有权力结构的存在,就会使算法带有一定的目的性,并且此种目的性也会由于算法和社会本身的不可控性,而造成难以预见的影响。

看到最后真的蛮感动的,有这么多厉害的大佬都不只是在关心自己的个人利益,而是利用自己的视角来为全体人类尤其是还在成长中的下一代做思考,怎么说,算是野蛮屠宰场里人类文明的微光吧。

 短评

朋友圈已经关闭了好几年,也不用微博和fb的我感觉自己还是有点觉悟的。

5分钟前
  • 席德
  • 推荐

就提一个capitalism会死吗

6分钟前
  • soyoungsogone
  • 还行

“在整个人类历史中,每次有事情变好,都是因为有人站出来说:“这太蠢了,我们可以做的更好”。是批判者驱动了改进,他们才是真正的乐观主义者。我们正飞速走向毁灭,需要一个奇迹才能让我们回头,这个奇迹就是集体意识,再足够的公众压力出现之前,这台机器是绝对不会回头的。”

7分钟前
  • 亚比煞
  • 力荐

“是批判者推动社会变得更好,批判者才是真正的乐观主义者。”

8分钟前
  • 烟雨如花转
  • 力荐

中文翻译的标题线路很正确嘛

10分钟前
  • 里拉
  • 力荐

通过海量的数据加上对用户个体的行为记录,最终用户个体不再特殊。你的行为可以被预测,你的心理已被掌握,你已经无所遁形。在IT巨头面前,你只是一个可被盈利的工具。 --你以为你想买的东西其实是巨头想卖的东西,你想做的事情是巨头暗示你做的。下篇讲述 在网络环境中,虚假的信息传播的更快,其中人工智能的推荐起到了加速作用。 推荐系统的智能化是的信息发送方变得极化,同时是的接受的信息变得不再全面的。。。。

15分钟前
  • W.史密斯
  • 力荐

三星半吧。这个片子一边谴责社交媒体蛊惑人心,一边也通过背景音,模拟场景,动画,拼命传输自己想传达的意思。有点讽刺

18分钟前
  • C&TUTU
  • 还行

突然觉得,我如果能活到八十岁,说不定可以亲眼看到这颗星球毁灭……

21分钟前
  • 西决
  • 力荐

可能是今年 Netflix 最好的一部纪录片,无论是 have no clue 的大众还是互联网业内工作人员,都能从中得到新的启迪。一段虚构故事结合湾区大佬们和学者们的访谈形式也耳目一新。Just fucking watch this right now!另外好多差评真是男言之瘾重灾区…

23分钟前
  • 椒盐豆豉
  • 力荐

最后还是把问题还原到商业模式和经济上去了 也就是说 不是简单呼吁大家自己控制社交媒体的使用就可以解决根本问题的 不过很有意思的是… 看完片子之后 大家还是屁颠儿屁颠儿跑到社交媒体上来打分了😂 这和竞争关注的结果其实没有本质上的区别吧 人生而愚蠢...也是没办法的事

24分钟前
  • ripley
  • 力荐

某种existential crisis的压迫感沉重到可以将其归类恐怖片的程度:迫真humanity的一个至暗时刻。毋庸置疑新自由主义的放任默许了它们的野蛮生长。日渐两极化割裂的民主世界,中产的消亡,功绩社会里的精神暴力,抑郁及自杀率的攀升,ultra-right/left异军突起众多吊诡背后,总能追溯到科技巨头的鬼影。今年的BLM可谓一个高潮,空前的社会撕裂,内战的恐惧开始在北美大陆扩散,然而那种担忧早已经在太平洋对岸成为了现实,诸如废青和武统的呐喊此起彼伏,落入集权独裁手里的社交媒体正上演着数亿人的《楚门的世界》。

28分钟前
  • 帷野久
  • 力荐

互联网是人类文明的硕果还是浩劫?这是一个问题。互联网发展太快,而互联网用户运用它的智慧却太慢。它几乎成为现代人剪不断的脐带,每个人都以为这根脐带为我们输送养料,却很少发现它也在吞噬我们的时间,消耗我们的生命。互联网背后是不断将我们异化的数据和图形,是将用户打造成韭菜的智能工具,而你我是它们手中的行货。尼采说,“在自己身上,克服这个时代。”然而,这多么困难。最有意思的是,看完这部纪录片后,我发布的信息也会成为互联网内容的一部分,不小心浪费了别人的时间。

32分钟前
  • 尘飞扬
  • 推荐

我一直是更亲近Yuval Noal那种对社交网的防御心,最近他跟唐凤的对话中,唐女士更接近Bill Gates,她们对Code is law的信任是基于他们对科技的掌握,略傲慢的盲目。人类善于发明创造工具,却总是不能智慧的使用好它,socialmedia被创造出时的工具属性越来越模糊,连接一切变成绑定一切,我们都在失去个人专注力的同时被训练的自动贡献出时间来替科技公司创造价值。见惯了友邻放弃包容,讽刺刻薄的针对陌生人,哪怕对方只是没把咖啡馆当图书馆对待产生噪音。我们大部分人,都忘了我们用社交网的初衷了,我们只是停不下来了,这不对,要自省。

36分钟前
  • 姜小白
  • 力荐

最讽刺的是你之所以能看到这部片子,多半也是因为它被网飞自己的大数据和算法推到了用户主页。这种感觉就像是有天迈克尔·贝跑出来拍了一部【电影艺术是如何被滥用CGI特效的好莱坞大片毁掉的】纪录片一样。

38分钟前
  • Laplace Demon
  • 推荐

聚众吸牍哪家强 网飞找来这群人一个劲戳别人脊梁骨 没种把自己的5秒跳转下一个视频算进去

39分钟前
  • Robo Captain
  • 推荐

影片翻译成”监视资本主义“太符合中国上层领导了,其实就是讲了社交网络怎样赚钱、怎样改变和监视用户、大数据统治的,其影响会延伸和触及到人性、进化、政治竞选等领域。但人类历史中的谎言、煽动、阴谋、阶级等现象,并不是网络时代就特有的,只是网络时代让这些现象具有更大规模、更快的反应而已,但不能把原罪归于网络。

44分钟前
  • 炸酱面
  • 还行

在网飞纪录片序列中算不上惊艳,内容都能想得到,有个别地方倒是有启发。其实社交媒体不是重新发明了人性,只是顺应人性被发明出来。

46分钟前
  • frozenmoon
  • 还行

前半段谈的是个人的成瘾性,后半段谈到了对社会和政治的影响,甚至还提到了香港问题受到了推荐算法的影响,实在是强烈推荐的纪录片。推荐算法让人类看到更多他想看到的信息,而不是正确的信息;当算法没有被操纵的时候,假象会被传播和放大的更快,社会群体的分化会更严重;当被操纵的时候,它会成为比以往更高效的舆论控制工具。

49分钟前
  • 流浪四方
  • 力荐

能请到离职的脸书 谷歌 twitter高管或功能创始人来搞一部揭露社交APP之罪的纪录片确实牛逼!!看影片开头好多工程师已经在担心律师函了。 我们以为的AI危机(人工智能)是电影中类似机器人入侵的画面,其实,人类早已被AI奴役好几年了,它们以智能手机APP的面貌出现在我们生活中,吃掉我们的时间,夺取我们的注意力,令我轻信、空虚、偏执甚至被利用…… 就连创造出这些APP的工程师们——这个AI统治者的创造者们都承认有手机上瘾症。if you are not paying for the product, you are the product.You would not realize it's a Matrix if you Are in the Matrix.

51分钟前
  • 七姐Claudia
  • 力荐

一边抗拒一边沉迷,也是无解了。

52分钟前
  • 桃桃林林
  • 推荐