大家怎么看AI可能对自由开源软件的影响?

个人觉得:AI支持的非自由软件无法取代自由软件。

1. 创造力不可替代。 如果考虑与非自由软件竞争的一些自由软件,其最大的竞争优势(相比于非自由软件而言),并不一定是性能上的优势或使用体验的优势,更主要的应该是自由软件能够获得互联网上各种“ideas”的供应——换句话说,自由软件包含的概念应该是远比非自由软件的更加激进与新颖。而由于ChatGPT等人工智能目前似乎缺乏人类的各种抽象思维等等的能力,导致其在根本上无法outrun人类的创造力,因而在软件的创造力方面,自由软件是胜于非自由软件(不论是否由ChatGPT等AI支持)

2. 软件价市场价值终将下降。如果从长期角度考虑,(根据Marxism政经学考虑)AI属于一种生产工具,长远来看,IT公司是无法通过AI盈利,因为软件的市场价值必然随着其成本的降低而降低(当然需要经过一段时间);在短期内,软件市场价仍然处于前-AI时代的价格,这时候部分掌握AI技术的公司仍然可以通过市场对于价格调整的滞后性来盈利;但如果自由软件能活过这段寒冬,则在软件市场价回落至较低水平的将来,自由软件(尤其是非盈利的)将于非自由软件站在同一起跑线上,其创造力上的优势将凸显,自由软件运动也将迎来自己的春天。

1 个赞

分布式开源 AI 模型训练早有先例,著名国际象棋引擎 Leela(LC0)就是在 AlphaZero 出世并且打败了当年的 Stockfish 之后开始了分布式开源 AI 训练。NovelAI 绘画出现后随即也出现 StableDiffusion. 现在也有 ChatRWKV 对标 ChatGPT


我觉得大公司未必会拒绝和开源社区合作。比如 OpenAI 做出 ChatGPT 之后,其他公司有两个选项,一是和 OpenAI 合作, 定时上贡使用 ChatGPT, 第二个选项就是支持对头的开源 AI 训练项目,卷死 OpenAI :crazy_face:

2 个赞

chartGPT将来进化后的AI就像是智子,区别是智子是三体人封锁地球科技的。AI呢,是地球人自己套上的枷锁,自己封锁自己的前沿科技与教育传承,无法反抗也无怨无悔。 :crazy_face:

看ai掌握在什么人的手里吧,如果是国内互联网巨头手里,用于Network censorship,言论管控的话就很恐怖,小公司没活路了,如果是马斯克这样的,用于人类文明在地球之外的星球上延续,我感觉还是很有意义的。当然前提是ai真的可以实现

我还从没有见过马斯克不给小公司活路的新闻,抖音刷到最多的就是马斯克公司(特斯拉)的专利开放,其它人随便用

现在有点紧。你最好为高考进九校联盟念四年应用数学,然后申请美国博士课程继续念六年写论文。希望你JavaScript饭钱能持续那么久。

这些太遥远了,程序员应该更关心的是ai那么强大,自己饭碗不保失业了怎么办

在保密机制能做到完善之后,最先被取代的反而是文书类工作。

不过已经被严重冲击的是自然语言处理方向的工作

至于在编程上取代人类,至少要到真正基于 AI 的偶像出道之后了。科班出身的学了离散数学和线性代数只要没有完全喂狗,编程能力也不会比现在的 GPT 的上限差。

这六年写论文用 AI 吗?

我忽然想到了那个在早期 Unix 编译器里植入会传染的后门的故事了。虽然这其实也是个软件就算开源也不见得有人会去审查代码的反面例子。

我的建议:

  1. 先学习个深度学习的梗概,coursera上有Andrew Ng的deep learning 课程项目,学下来,就对背后基本的数学逻辑,软件方面的使用有了不小的认识。

  2. 学习流行的深度学习框架(完全不需要知道里面怎么写,但知道怎么调用就很好,这个过一遍官方文档就足够了)。我理解目前深度学习,大家都基本是采用tensorflow或者pytorch的包,本身提供了众多的已有模型,大部分都可以拿来用。

  3. 有了上述的基础,我想就可以在实践中入手看看。找些实际项目,利用现有的模型框架,训练和查看输出,从实际上检验。

  4. 书籍方面我推荐 deep learning book,这个领域大佬写的,但是我觉得偏重理论,可以一开始不管。

  5. 目前我们说AI都指深度学习,它只是机器学习的一个分支。在这之前,其实机器学习或模式识别已经发展了很多非常实用的方法,如树模型(决策树,随机森林,gradient-based boosting tree), 支持向量机(SVM), kernel method,广义线性回归,聚类分析(如k-means,hiearchical clustering)。 它们背后的数学原理上不比深度学习简单,但一般的小型机器就可以跑起来。虽然名词很多,听起来唬人,但python的sklearn 已经包含了绝大多数主流方法,官网教程也非常好,这个上手也相对容易,是做AI不可或缺的。 这类模型缺点,往往是难以吞吐大数据,以及在语音,图片等这类数据输入上,要额外做特征提取,不如深度学习方便,上来直接用原始数据。

NOTE:

  1. GPU在学习阶段我认为不是必需的,tutorial 跑个一两步找找感觉,CPU足够。但后面可以自己买个Nvidia的显卡,配合大块硬盘和大块内存,自己就可以上手了。 我买了Google cloud 的colab,他们可以提供机器和显卡,每月花费不多,同时配合google cloud,我想也可以替代硬件上自己买nvidia这些。
  2. 深度学习库方面:目前主流的有tensorflow(Google), PyTorch (facebook, 现在应该是Linux 基金会下), MXNet(Amazon) 以及早期的Caffe。 我推荐前两者。本身深度学习的模式是一致的,大家使用的核心算法也是一致的,只是不同框架实现表现略有区别,其实学好一种,上手另一种相对容易。 如果只推荐一种,我倾向于pytorch。 它目前在学术界使用广泛,上手极为容易,工程上近期开放了C++API,有实践应用价值;tensorflow 变动较大,从1.0 到2.0, 简直不是同一个框架了快,并且它开始学习pytorch的构建模式。tensorflow明显的优势是提供多语言API,Java,Javascript,Scala等等。
  3. 目前AI的门槛其实很低,而且随着主流的深度学习框架的成熟,越来越变得工程化。目前算法的背后数学逻辑较为基础 (强化学习例外,相对难,这里面典型的模型是Google的AlphaGo),相对简单,更重要的,甚至可以暂时忽略,主要需要掌握的,则是对tensor 这种多维向量的各种操作。我认为是完全可以 侧重工程化和实用角度,来入手AI。
9 个赞

怎么看待 Ray ?

有個小問題。傢伙想靠AI研究過日子。

赞!我基本只是用目前的模型,且都是单卡,完全没有碰过大模型的研究。就像你说的,大模型方面,其实更是计算机系统工程,而不是侧重数学建模。你提到的这些,也更适合,计算机方向的同学做AI的方向。

我记得这个故事是想说软件就算逐行审查了代码也没法看出后门。原理是你可以先写一个带后门的编译器,然后用这个编译器自举一份没有后门的编译器代码。