据说AI要代替程序员写代码了,弄得现在不想学新东西了,就等AI了
说实话挺向往这一天的,个人一直感觉程序这东西本来就是机器更擅长处理,人类更擅长提需求,两者结合,珠联璧合
个人猜测:早期AI写程序估计还是需要程序员配合的,慢慢成熟后,可能会脱离程序员,直接受产品经理指挥
据说AI要代替程序员写代码了,弄得现在不想学新东西了,就等AI了
说实话挺向往这一天的,个人一直感觉程序这东西本来就是机器更擅长处理,人类更擅长提需求,两者结合,珠联璧合
个人猜测:早期AI写程序估计还是需要程序员配合的,慢慢成熟后,可能会脱离程序员,直接受产品经理指挥
完全替代不太可能,AI 最多辅助写一些重复性高的业务逻辑代码,只能算个强大的搜索引擎罢了,让它写个稍复杂的模版元编程或者冷门语言就只会胡说八道了
现在还没到那一步,不过AI还在快速进步,未来可期
其实现在也不是不可以, 只要你把需求描述得足够清楚就行了, 我前两天处理了几个 网站高危漏洞 , 直接用AI给出的代码, 发现不对又回去叫AI改, 改了几回后感觉没问题就这样了.
当然不使用AI问题也能解决,但是已经不想自己动手了
未来估计会更加成熟,更加聪明,可能一步到位
有生之年不会的
有点搞笑说实话, 要被替代也是产品经理先被替换掉
纯粹的写代码这件事我觉得AI可以搞定, 而创意输出,理解用户与老板的各种奇葩需求,人情世故,某些甚至是不可描述的,可能会比写代码还要难,所以产品经理应该还是难以被替换掉的
应付老板的奇葩需求和人情世故的话, 不是很懂程序员比产品经理差在哪里. 还是说只是单纯需要一个人来交接.
至于说创意, 确实是需要这样一个职位. 但是仅按照现在流行的软件的交互设计水平来看, 我都能找到一大堆不符合人体工程学的地方.
比如, “起点读书” 的初始界面不在 “书架”; 电脑微信字体不能调整; 知乎有一段时间把 “关注” 按钮放在 评论区 按钮旁边, 一不小心就点到关注, 简直是脑子被驴踢了; 淘宝更是个寄, 塞了一堆基本上没人会用的小程序.
再说美术设计吧, 比如 真是自我意识过剩, 谁会关心你这版本号呢?
还比如 iOS 微信的
很明显点击一次 “我的二维码” 至少 对应一次 “扫一扫”, 说明“扫一扫”使用频率更高,那么 “扫一扫” 就应该放在离手指更近的地方, 也就是刚刚轻触 app 图标的位置, 应该在 “我的二维码” 的下方. 由此看出设计师根本不动脑子, 或者说考虑得实在不周全可能会有这种场景:用户用app的时候,某个功能不知道怎么操作,找客服(在线或者面对面),客服需要先知道你的版本号,是否太老,如果(在线)客服让用户告知一下版本号,用户(广大基层老百姓为主)可能很难找到版本号,而写在logo上就简单了
在线客服根本就不应当要求用户主动告知版本号, 做产品的难道连自动发送app信息的功能都想不到吗
面对面客服可以, 但更简单的方法是客服手把手操作, 而不是客服说一句用户跟着做一次操作, 然后还要把操作的反馈详细描述给客服听, 再询问下一次操作. 而且我看了下实际版本也不是 9.0 …
写在启动界面就好多了. 当然这一条确实有点牵强, 属于个人品味问题
app交互设计方面的问题感觉很多根本无力吐槽, 说一个我目前体验过最糟的。
搬家去水务公司开户, 希望在网上缴纳自来水费, 然而我所在的城市不支持在支付宝或微信上缴纳, 要使用一个独家绑定的APP,只要我不想去线下柜台交水费,就只能用这个APP, 我每月打开一次,交完水费就没事了.
这个app的特点是:不升级到最新版本不能用, 几乎每月都会更新, 我每月点开它的时候就弹出提示框让我跳转升级页面, 操作几回后我只好放弃, 选择每次都升级, 升级后也不会记录原用户信息,要重新输入手机号登陆, 有时还要重新找回交水费的户号输进去才能交费,有时又不用…
所以 @netjune 说的这种情况在这个APP上是不存在的, 我觉得在很多APP上也是不存在的, 用户直接就用不了老旧版本的APP.
这个APP在全国范围没有任何知名度, 但在我所在的城市的知名度几乎不比美团差, 是的,这是个外卖APP,名字应该也没必要回避,我就发出来吧,生活PLUS
上周拿别人的 GPT-4.0 (4o 也试了,复杂的编程问题不太可靠)试了下写 pytorch,发现写出的 Python 基本是拿网上能搜到的现成代码杂交的。没有几次是能直接跑通的(基本是模型的 layer 尺寸之间没整对),还是学习正常的文档有价值。
然后试了下用 J 编程的能力,比 3.5 时候好很多的是解释简单代码方面,提供输出输出再加上用途后,在一定的改正后能给出正确的解释,而且能理解 left associtive 的运算了。但是到写复杂代码 (Kronecker product) 还是纯瞎说,给不出可用的结果。正确实现之一是下面,分解出来也只要三行,GPT-4.0 只会给出 matrix product 或 outer product 的答案,说明能调用的 J 语料库太少了。
tp =: cs ($,) as |: */
cs =: ([: */ ,:!.1)&$
as =: ~.@,@|:@(,:&i. + 0 , [)&(#@$)
使用记录如下
https://chatgpt.com/share/7c2a8514-e7c5-4593-89a0-c06fcceca427
在搜索引擎能搞的内容质量下降后,拿 GPT 代替搜索,而后在 AI 的语料库里引入更多的低质生成内䆟,我反而怕是这样的技术反奇点来得更快。
AI 的能力还依赖于互联网内容的产出。
AI 相关的一些代码,质量真是乐色的不行。
原来是那句 Quote
温泉的高度,不会高过它的源头……
早着呢, 稍微复杂一点的问题,就开始瞎说, 有时候非常固执的坚持一个错误的答案, 所有表现就好像它的答案就是统计得来的, 一旦训练的资料没有这方面的数据, 就开始瞎说,即便是很简单逻辑推理
生成代码方面,微软那个Copilot是不是会更好点?微软好像有个专门辅助生成代码的产品,有可能是用github上的代码训练的
我觉得搜索引擎都找不出答案的东西, AI就不能给出答案(或给错误答案), 这个限制应该要有, 可以让人觉得AI是安全可控的.
如果那天AI可以回答出搜索引擎互联网都找不到的东西时甚至是训练数据里也没有的东西, 而且人们还难以分辨是真是假是对是错,这个时候继续说AI是安全可控的就感觉有点缺乏可信度了
目前这个训练流程 LLM 是不太可能替代程序员的. 毕竟程序员算是教育体系的高端产品了. 而 LLM 这边的逻辑能力暂时只是用人类语料靠压缩模拟出来的, 还没到人类平均水平.
不过也有些好消息. 一是规模最大的那些 LLM 可能没有还被充分训练, 人类语料目前就这么多了, 所以新模型基本都是 MoE 或者去卷多模态. 这几年有些低比特量化的文章, 比如 BitNet 系列, 大致结论是说就算用低精度数据模型 LLM 也可以保持不错的效果. 我感觉这像是在说 LLM 还是欠拟合.
二是 OpenAI 之前低调收购 Global Illumination 的动作. 如果要强化 LLM 的逻辑能力, 最容易想到的就是 AlphaGo 类似的方案. 首先用人类语料 (人类棋谱) 获得一些逻辑能力, 然后把模型放进一个沙盒 (棋盘), 模型在沙盒里的互动 (落子) 会获得 feedback, 再通过这个 feedback 去调整参数. Global Illumination 之前的产品刚好是个多人在线的类 Minecraft 网游.
AlphaGo 用人类棋谱训练的阶段棋力也就是业余水平, 走完后面的流程才能超过人类. 不过 LLM 这边肉眼可见的困难要多不少, 能不能复制当年的奇迹确实也难说.
Code和围棋有一个关键的不同:围棋的目标是单一的,即获得胜利。但是Code中目标是多元的,程序员写代码是为了满足现实世界中的某个特定需求。所以说,我们除了一个coder,还需要一个能够(1)提出与人类相似的需求 (2)判断生成代码是否满足需求 的AI产品经理,两者合起来才能成为闭环。