前看到划分方式都是按人的能力划分的,受教育年限,智力复杂度,技能/创造力高低 AI路径怎么会按人的能力决定?当然是按AI的应用领域路线决定
而AI应用领域路线决定性因素很简单,就是容错率,一句话总结,AI会从容错率由高到低的行业开始“取代”人类职业
openAI喜欢用GPT能力和职业技能直接去对比去看如何取代职业,可GPT有这个能力=能干得好吗?完全没说到点上
还是那句话,为什么自动驾驶一直遥遥无期?就是因为错误率达不到预期值(仅仅和人类一个量级)。责任主体是很严肃的问题,所以实现全自动L4错误率降到足够低才有能力应对天价赔偿
会计也是类似道理,GPT的结果写的再好,也还需要会计作为责任人签字担责。如果GPT错误率在1%这个量级,那么仍然需要人检查验证,实际上和现在会计领域工具相比没有明显的改善,甚至在准确率上不如现有工具(现有工具也能自动导入文件,也有很多各角度检查功能)。就像有了copilot编程,再来GPT4辅助编程并没有大幅提升效率一样
那么从错误率由高到低,就很容易看出AI“取代”职业的时间线了
E1等级:容错率最高的行业最先受到GPT/生成式AI冲击(或者说最先应用),比如内容生成辅助(写作/平面设计),算命之类,这些行业对创造力和智力或者专业技能的要求都很高,但容错率高因为没有标准答案,但反过来说,这些行业也是最先让人惊艳和产生更多价值的地方(所以是会使用工具的人“取代”不会使用工具的人)
等GPT的错误率继续降低到E4等级了,才轮得到软件行业被冲击,就像之前我写的从第一性原理看LLM的极限里说的,code越复杂,生成准确率概率就会指数型下降,即便是加入了自循环debug也无法从本质上解决这个问题,code复杂之后出了错还得人工debug(自动debug无法收敛),更不说复杂系统的debug连行业老手也很艰难,所以这得是错误率极低之后才变的可行
E6等级则是律师,医生,这样重大责任需要人作为责任主体背书的
E8+则属于容错率最低,也是AI最难取代的职业:比如芯片设计制造,火箭设计制造
这两个行业占据最难被AI替代的职业的鄙视链最顶端,原因就是容错率极低,且debug难度极大,行业经验门槛很高,最重要的特征是,失败一次的成本是好几千万美元:5nm以下芯片流片制造一次的价格和发射火箭失败一次的价格都是这个数量级
所以说AI的错误率才是我们最需要关心的替代人类指标,最近的GPT各种论文,RLHF,Self debugging, CoT,本质上都是在解决一个问题:错误率。这可能是决定行业被GPT革新程度的最关键因素。
而关于AI错误率,我的一个大胆猜想是,在目前这种全行业资源倾斜的境况下,如果算力正常发展(十年五个数量级)
每隔10年,AI全方位能力(感知/决策/生成)的错误率下降一个数量级,就像图像识别过去十年的进展一样
而AI的错误率每下降一个数量级,应用领域/范围上升一个数量级