2021-03-03 20:13
很多事儿不能细想。只要不细想,就可以当一个快乐的复读机。一细想,复读机状态就坍缩了。
比如很多人学会了咬“共同富裕”这个词儿:“不是说共同富裕吗?为什么福布斯榜上的人比我富裕那么多?”
但要是细想的话——“共同富裕”,就是“同样富裕”的意思吗?“共同富裕”,就是“同样富裕”的意思吗?
你看,不能细想,一细想就不痛快了。
而且越细想越不痛快。即便假设“共同富裕”就是“同样富裕”的意思,或者当初就没用“共同富裕”这个词,用的就是“同样富裕”。而且还可以假设中国基于“同样富裕”的政策发展了 40 年,吃大锅饭也照样取得了今天的成就——2020年,中国全国居民人均可支配收入 32189 元,差不多就是每人每个月 2682 元。今天要“同样富裕”的话,那就是这样。
阿贵想用根竹筷把辫子一盘就能把秀才娘子的宁式床搬进土谷祠,却不知道还有很多人想用根竹筷把辫子一盘就分了他的土谷祠。
2018-10-20 18:48
【如何反驳“代码混淆只是降低了可读性,安全性并没有得到实质提升”的观点?】
“简单背景介绍:我是一名初级Android开发者,对信息安全方面了解不深,但现在公司的App由于某些原因需要较高的安全性。我在正式发布前将代码混淆后再反编译,得到了反编译的jar包,里面仍能看到许多方法调用链和常量等,因此某位做后端的同事抛出了这样的观点。结合Android的特性,我该如何反驳?”
用下图中的表情(就是没有表情),非常缓慢地,一字一顿地说:
“That depends on what your definition of Security is”
2015-06-17
🔗如何反驳“代码混淆只是降低了可读性,安全性并没有得到实质提升”的观点?
2022-06-20 21:37
这个 Autopilot 像不像抢了活儿但发现自己干不了在捅篓子前一刻撂挑子把锅甩给你的同事?//@于三羊开泰: 转发微博
2022-06-20 11:12
【陷入巨大质疑 #车祸前1秒特斯拉自驾系统自动退出#】近期,一场针对特斯拉的调查,在社交媒体上掀起了轩然大波,这份调查来自美国高速公路安全管理局(NHTSA)。NHTSA展开调查的直接原因,是有不止一辆特斯拉在开启自动驾驶系统Autopilot的情况下,闯入已有事故现场,撞上明明早已停在路边的急救车、警车或者出事车辆。在16起这样的事故中,Autopilot都是在汽车发生实际撞击前不到一秒才中止了控制。而这,完全没有给够人类司机接手的时间。有网友质疑:如此设计,特斯拉就可以否认事故是因为Autopilot了?(量子位) 🔗特斯拉陷入巨大质疑:车祸前1秒,Autopilot自动退出