Windyland 内核崩坏

写软件难难于上青天 - 续篇

BBH的博客,写软件是很难的, 一语戳中很多程序员的软肋.对此深有体会.

写软件难, 难于上青天, 下面特地补充一些不方便用英语描述的问题.

不明确的问题

写软件是件体力活. 写软件自然少不了和计算机打交道, 学过计算机科学CS 的人都知道这是一门以实践著称的学科, 说白了就是没有严格系统科学体系的学科.

既然理论是不系统, 自然对知识面的广度有更高的要求. 比如修复某个分布式系统追到具体kernel的网络行为, 或者深度学习的算法bug 调到了编译器上 – 领域一大 再牛的人总会遇到自己不知道的东西.

不明朗的需求

按理说一个产品都会有自己的需求决定. 比如定制一个红绿灯, 总会有某个城市成千上万的人去检验它是否合格.

但是很遗憾, 软件产品本身决定了自己不可能和传统一样有固定的需求.

软件产品容易修改. 不同于传统产品的生长设计周期, 软件产品比硬件产品可能容纳更多的动态的需求, 其工程理论也从瀑布式发展到敏捷开放, 即便如今敏捷开放不再是主流, 后面的趋势也是如此. 与此同时使用者也收到其影响, 对软件产品的需求日益趋于不稳定.

软件产品的重用机制收益非常高, 简单地修改就可以满足不同人群的需求. 比如Windows, 其部分核心代码还是三十年前msdos遗留的. 相比硬件产品每次迭代都需要推倒重做, 中间节约的人力和物理成本相当之大.

永恒的问题

在某个调查中显示, 70%以上的成功IT企业的CEO都认为人工智能最后会取代人类.

其实这是不可能的. AI 或者 计算机 其主要的发展逻辑是通过人类书写的程序代替了人类的人工作业. 其本质还是一部分人类(通常被认为是机智的)代替另一些人类的工作.

从逻辑学角度, AI的独立性是无法被自我证明, 就如同定理本身.

从历史学角度, AI的发展取决与人类的发展, 有可能就如同IT取代机械文明一样, 后面还会有新的领域出现取代IT.

从伦理学角度, AI只是多数人的意志以少数人的决定的体现, 人类的社会总究还是在相互影响, 只不过换了一个途径.

从哲学角度, AI只是人类当前时代形而上的意识, 人类的意识对外界的依赖, 如果AI总有一天取代人类, 这一天不能影响人类,也即不能被观测, 对人类本身也是毫无意义的.

从科学角度, AI的存在仍然是有序的电子或者量子效应的叠加, 比自然界中的量子效应的影响力想去甚多, 也许会在某一时刻占上风, 不过不值一提.

从数学角度, AI的理论是不可自证的, 其行为的发生和持续依赖外界因素的干扰.