为了中国市场,Hugging Face 甚至玩上了小红书(为了完成在全国的市场布局工作)

图图资源公众号引导关注.jpg
以上资料,免费领取,领取地址:https://vip.f6sj.com

提到 AI 竞赛,以往人们脱口而出的大多是 OpenAI、谷歌、微软等一众大厂,但随着 Hugging Face 的出圈,人们逐渐意识到,如今的开源社区也已经成长为了一股不容忽视的力量。

作为开源界的顶流、AI 领域的 GitHub,Hugging Face的发展模式是基于开源的协作与合作,以开放、透明的方式与全球的开发者和研究者合作,通过提供一键式的技术工具,极大地降低了 AI 的技术门槛。

7 月 7 日上午,在世界人工智能大会 WAIC 的主会场,Hugging Face 的中国区负责人王铁震,与未尽研究的创始人周健工,进行了一场主题为《开源力量推动生成式 AI 发展》的对话。

在王铁震看来,开源最大的优势就是「透明」,每个人都能打开大模型的「黑盒」看到数据是如何被应用于训练的,每个人也都能依据自身需求场景去创造属于自己的 AI 模型。

同时,作为一家估值至少 20 亿美元的开源社区,Hugging Face 主打的就是「贴近群众」,例如直接将活动搬到小红书上,让更多人能近距离接触 AI。

王铁震认为,未来 AI 发展的关键在于:「不仅仅要让 AI 的发展能帮助到各行各业的人,也要让各行各业的人加入进来对 AI 的发展产生帮助。」

01 AI 2.0 需要新的「学习」

周健工:之前你说这半年一直在学习,你在学什么?通过你的学习,对生成式人工智能这个行业的前景有什么新的感悟吗?

王铁震:过去五六年我在谷歌都是在做 AI,我们当时做谷歌人工智能的训练框架,当时我们在服务器上、手机上都有做过一些工作。但是我发现当时那一波的人工智能和现在的 AI 2.0 有很大的不同,因为以前的模型其实没有那么聪明,它的通用性也不好,每一个新场景都要重新去训练,所以它是面向开发者的一个 AI 工具,并不是普通人也能用起来的 AI 工具

去年大概 10 月、11 月的时候,我发现这一波 AI 浪潮非常的不一样。像是 Stable Diffusion,玩得最火的可能不是 AI 圈的人,而是学习艺术、设计的这些人,之后的 ChatGPT 更是很多美国的普通学生在用来写作业了,这个给我的感觉非常不一样。

当时正好有一个契机,我就加入了 Hugging Face,加入之后一直在学习这方面比较新的技术。其实也不只是技术,我还需要向开发者去学习 To C 的东西,让每个人都能把大模型用起来,根据自己的需求去将大模型与自己的领域相结合。

我也在学习大家是怎么使用这个技术的,它能去解决什么样的问题,看到大家的一些创新想法会感到非常开心。所以前六个月,我基本上都在学习的过程中,每天都是非常充实,感觉 24 个小时完全不够用。

为了中国市场,Hugging Face 甚至玩上了小红书(为了完成在全国的市场布局工作)

王铁震在 WAIC2023 大会上介绍 Hugging Face 开源社区|WAIC

02 开源的最大优势是「透明」

周健工:行业内现在产生的一个争论是,闭源和开源的模型是怎么共同推动生成式人工智能往前发展的?它们各自有哪些特点和不同?

王铁震:以大模型为例,大家最熟悉的 ChatGPT 其实就是一个闭源的模型,目前 GPT-4 是效果最好的模型,这毋庸置疑。很多企业在创业的早期也都是选择接入 ChatGPT,直接在外面做一些 prompt engineering,做 fact database,就可以很快地把产品做成。

但是随着规模的扩大,或者说因为不同领域的一些要求,就会发现数据安全、企业部署的场景、部署的成本以及大模型功能上的问题。大家发现 ChatGPT 并不能完整满足他们的需求之后,企业就会想能不能拥有一个自己可控、可调、可「魔改」的模型。

Hugging Face 当时赞助了一个叫做 Big Science 的开源组织,他们做了一个 Bloom 模型,是一个千亿级的模型。我们当时把这个模型训练下来,用了 300 多块 A100(英伟达 GPU),花了 100 多天,最后算下来成本非常高。包括训练产生的碳排量,其实相当于排放了 50 多吨的二氧化碳才计算出来,所以从头训练一个大模型是非常不经济的,尤其是对于中小型的公司来讲

但是我们把模型训练完成后,包括很多其他做开源的大模型,会把这个模型公布出来,大家可以基于这个模型去做一些场景的调优,这样对于企业的要求就更低。企业不再需要那么多显卡,也不需要那么多时间,甚至稍微少一点的算力和数据都可以做到这个事情。这其实是开源社区给大家带来的非常好的机会。

往更远说,开源社区所有的东西都是透明的,你知道这个模型用了哪些数据,包括最近大家都在说网络信息有被遗忘的权利,但是闭源模型的数据被吃掉后,你永远不知道是不是有些关于你的事情会在互联网上被公布出去,相反,开源模型所有的数据集都是公开的。

我们在做大模型的时候设计了一个特殊的机制,就是允许你 opt out(退出)。因为模型的数据集、模型训练,以及模型的发布、优化都是在网上全部公开的,所以你随时可以发现这个模型在做什么事情。所谓的 opt out 机制,是说如果我的数据不想被大模型吃掉,不想用于这个大模型的训练,你随时可以把它抹掉。

所以我认为开源相对闭源一个非常大的优势就是——透明。开源模型可以给每个人更多的选择,每个国家、企业都可以按照自己的需求去定制。另外,开源还是一个非常好的工具,它可以通过在线的平台去团结全世界的开发者,只要你有想法、有自己的思路,就可以加入到开源社区,把你做的事情很快地跟全世界分享。

周健工:开幕的那天 Yann LeCun 杨立昆有一个对话,他认为解决大模型现存问题的唯一的出路就是开源,你怎么评论这句话?

王铁震:站在 Hugging Face 的角度,我们其实是非常期望通过开源的方式把大模型普惠化,让每一个公司、每一个人都能拥有自己的大模型去做自己的事情,去解决数据隐私、数据安全等问题。

包括最近有很多企业都明确的规定他们的员工不允许使用 ChatGPT 这种模型,甚至有一些谣言说 Google 的员工也不允许使用自己的 Bard 模型,因为担心隐私数据的泄露。

还有一点是,为了让模型在某一个领域去更加趋同人的行为,ChatGPT 做了很多工作,但是它只给了我们一个选择。通过开源,我们每一个人都可以根据自己的需求去生成模型

为了中国市场,Hugging Face 甚至玩上了小红书(为了完成在全国的市场布局工作)

「社区」是 Hugging Face 非常强调的文化基因|Hugging Face

?

03 AI 玩上小红书

周健工:Hugging Face 上有 25 万个模型,这个数字很令人吃惊,这 25 万个模型都是什么样的模型?他们为什么都跑到你们的平台?能不能简单科普一下。

王铁震:我们刚才聊得很多都是 NLP(自然语言处理)领域的文本大模型,其实在我们开源社区看来,这只是千千万万大模型种类的一种。

为什么千千万万的模型都选择上传到 Hugging Face,我想从两点来回答,一个是说技术层面,一个是从社区层面。

技术层面

技术层面上其实我们是像 AI 界的 GitHub,比 GitHub 更适合 AI 界的一点,是我们支持大文件的上传,我们免费提供 hosting,免费提供全球 CDN 的 deliver。这些对大家的帮助是非常大的,而且大家基于我们的平台可以做版本控制以及开源协作,每个人都可以来贡献一点,最终把开源模型变得更好。

在技术上我们还提供了可以一键部署的功能,你可以点一下鼠标就将模型快速的部署到亚马逊云上,很快就可以将模型使用起来。

文化层面

从社区文化上来说,我们是一个非常重视开源社区的公司,我们特别希望帮助大家,希望能有更多的开发者参与到开源的事业中,所以我们特别愿意去接受大家的反馈,去跟大家做互动。

比如对于第一次来贡献代码的开发者,我们会对他们进行非常细致的辅导,这其实很花时间,而且投入产出比不高,但我们觉得这是一个非常有价值并且重要的事情,因为我们要慢慢把一个开源社区做起来。

我举个例子,昨天晚上我看到微信群里有人说觉得 Hugging Face 很有意思,因为他之前就是抱怨了一下我们的系统有的变量名不是特别好,第二天就发现 Hugging Face 的员工专门开了一个 issue 来讨论这个问题。

我们社区的文化实际上是非常好的,每一个人到社区里都有一种家的感觉,大家也更愿意使用我们的平台。

周健工:你谈到的社区其实有三类用户,第一批是早期的研究者,第二批是开发者,第三批是真正的技术使用者,能不能结合你的工作来聊聊未来 Hugging Face 社区的发展方向?

王铁震:我们想要做 AI 的普惠化,希望每一个国家和企业都能有自己的模型,并且每个人也有使用 AI 的能力。所以我们早期的工作确实是在关注研究者,在思考怎么方便他们去更快地创造一个模型,随后我们设计了一套 API 的流程,让大家可以用同样的 API 去快速的调用基于 Transformer 或者 Diffusion base 的模型。

慢慢地我们扩展到了工业界,希望抹平学术界和工业界之间的差异,让一个模型从学术界拿过来之后很快就能在工业界用起来。现在我们发现新一波的生成式人工智能对每一个非技术向的用户都有很大的帮助,所以我们也希望进一步抹平这方面的门槛。

我们在 Hugging Face 上提供了一些非常有意思的工具。正常来说你在 GitHub 上看到一个 repo(repository,可以理解为存放项目的仓库),要把它用起来需要自己装环境搭配,对于很多非技术向的用户这是一个很麻烦的事情,因为他可能看到这堆代码之后也用不起来。

我们做了一个 spaces,可以在线免费给用户提供一个容器环境,开发者可以把它的模型直接部署在 spaces 上,当用户进来的时候看到就不仅仅是一堆代码,他看到的是一个鲜活的应用,可以直接在上面点一点玩起来,直接看到效果。我觉得这个对大家帮助是特别大的。

另外我们也会在国内搞很多活动,希望帮助更多人去了解 AI 模型是怎么回事儿。

为了中国市场,Hugging Face 甚至玩上了小红书(为了完成在全国的市场布局工作)

Hugging Face 在小红书上开展的 AI 头像活动|Hugging Face

?

插个广告,我们最近在小红书上进行基于我们 Diffusion 的活动,希望大家能去生成自己的卡通风格头像,跟其他产品不同的是我们提供了一个开发的环境,你可以在其中看到每执行一步程序,图像产生的结果里面会有很多参数,你可以把黑盒打开,了解到这个模型里面到底在做些什么,然后进一步将更多的 AI 能力和实际需求结合起来。

我们最近也在做 AI for Gaming,希望做游戏的同学能够了解 AI 的能力,让做 AI 的人也了解游戏场景中他们在关注什么,把两者结合起来,我们认为这个方向会有很多有意思的探索。

总结一下,我认为不仅仅要让AI的发展能帮助到各行各业的人,其实也要让各行各业的人加入进来对 AI 的发展产生帮助。大家可以一起探索这些前沿未来的方向,这不是 AI 圈自己就能解决的一个问题,我们要把具体的场景带进来。

网站右侧边栏广告位.jpg
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 630371849@qq.com 举报,一经查实,本站将立刻删除。
如若转载,请注明出处:https://www.po4.xyz/33565.html