项目主页:https://github.com/OpenGVLab/GITM这一创新也有助于推动通用人工智能(AGI)的研究目标加速实现,发展出能够在开放世界环境中像人一样进行感知、理解和交互的智能体,并为机器人和自动驾驶等产业带来巨大突破和进步,有效解决现实世界中复杂环境和各类长尾问题,推动AI技术更大规模的产业落地。
从2018年开始,我们就围绕这三个元素进行探索,一个个去实现。2000年—2004年在硅谷做PC版的视频会议,理解为PC版的Zoom。
但我们有自己的强项,那就是追赶。当时抖音还没起来,快手也刚开始尝试商业化。AI科技评论:那个时候AI专业出身,跑去做搜索引擎的是不是比较多?罗江春:有做,但搜索引擎当时还不是人工智能的主要方向,做索引、数据库这样可用于搜索引擎的通用性技术的人多,比如李彦宏。所谓Video Google模式,就是大家可以用Google 搜索全网内容,但搜不了视频里面的内容,直到现在,这个问题都没有一个足够好的产品来解决。AI科技评论:现在一览科技主要是提供ToB产品?罗江春:是的,因为ToB路线跑出来了。
2018年的时候,抖音、快手,以及腾讯视频号等花费数十亿元做推广,在这样情况下,我们只花了5000万元,结果可想而知,根本推不动。但脚本的自我生成不太成功,这是整个行业都没解决的问题。那么,如何架设一座桥梁跨越这个鸿沟呢?这座桥就是应用,就是产品。
数据梳理和数据标注是两个概念。反观国内大模型的发展,确实如此。就像我刚才举的例子,Transformer是谷歌开源的,但是在谷歌的PaLM 2中使用的训练数据是从GPT 4产生的语料中获取的。微软也同样如此,他们使用GPT 4为Office全家桶和Bing等产品做了升级,他们所做的就是最后一公里的工作。
那竹间提供的大模型工厂(LLM Factory)可以在短时间内,快速且低成本的,帮助企业构建自己的大模型,将其部署到本地并与现有系统融合,从而协助企业进行业务的升级。如果只有模型和知识,却没有应用,那么它就无法被人们所接受。
完成训练后,我们的Benchmark 系统可以对训练结果进行比较,然后根据客户的不同业务场景与目标,为他们选择最合适的模型,企业不再需要花大钱组建模型训练团队。转眼到2023年,在人们还在谈论大模型怎么做的时候,竹间智能就推出了大模型工厂(LLM Factory)。谷歌也是一样,与OpenAI一样开发AGI,并且在为自己的产品以大模型的能力升级,谷歌和微软的大模型都还是闭源的。雷峰网:那竹间应用层的产品接入大模型的能力了吗?简仁贤:我们原有的4个产品都已经具备大模型的能力,并且已开发的四种应用也是基于大模型的原生产品,我们的SaaS 产品也已经接入大模型了,也已经开放给许多客户试用了。
雷峰网:大模型工厂(LLM Factory)具体可以做什么?简仁贤:大语言模型工厂(LLM Factory)的运行机制非常复杂,整条模型训练微调的流水线从数据梳理清洗,人工标注,到选择预训练基础模型,实验不同的微调方法,不同人物进行多次微调,并评估模型结果,再加入人工反馈强化学习机制,上下文学习,等等,进而自动化地完成模型交付。谷歌并未开源其模型,目前仍保持闭源状态。比如,设定三种模型,三种不同的微调训练方法,以及三种不同的训练数据,就可以训练出27种不同的模型。但值得注意的是,彼时国内对NLP的研发还处于空白,也没有一款成熟的NLP产品出现。
目前,大模型呈现两大发展趋势:一是保持闭源并走向超大型模型。雷峰网:其实这也在一定程度上解决了数据安全的问题?简仁贤:我们的大模型服务强调的是数据安全和模型安全,事实上,模型安全更为重要,因为企业的许多know-how都融入了模型中。
这就是我们的价值观——只有模型是没有用的,正如OpenAI一样,尽管它的很多论文很难懂,但是它创造出了ChatGPT这个应用,给大模型一个与人类沟通的一个界面,将大模型到应用的全过程实现了,让全世界都能在一个界面上利用大模型完成各种任务,因此它才能如此成功。自2021年GPT2问世,我们就开始关注了,并将机器学习平台向大模型开发方向迁移。
我们在自然语言处理(NLP)领域的深耕已有近8年,大语言模型也是NLP领域,最大的突破是生成式AI以及将大语言模型训练工程实现,现在企业面对的挑战是如何克服大模型的落地的种种挑战,将大语言模型应用到业务场景中,达到业务的效果,而不是只有炫技。因此,未来软件的新范式应该是:谁能够做出让用户享受到成果的产品,谁能够把最后一公里打通,就是最有价值的,当然要能保障数据安全,模型安全,并与人类对齐。我们的目标是为数万家有大模型需求的企业提供大模型支持与解决方案落地。作为B端的服务提供者,我们在金融、能源、制造、消费、传媒等领域已经积累了丰富的经验对此,简仁贤还特别举例道:如果你和家里人说我有个大模型,他们可能无法理解你在说什么,但如果你说有个APP,你只需跟它说几句话,它就能帮你写信,他们反而能迅速理解并接受,他们才不会关心你背后是大模型还是什么。雷峰网:所以让客户低成本的享受大模型的能力,也是我们重点要做的?简仁贤:我们的目标就是将人工智能平民化,让所有的企业都有自己的大模型,都能负担得起的大模型,甚至我们设定一个目标:成立99万大模型试验室,让企业在99万的预算内即可打造一个企业自有的大模型,让大模型变得更为平民化。
雷峰网:大模型工厂(LLM Factory)是大模型火了之后开始做的吗?简仁贤:不是,从2021年起,尽管大模型当时并未大热,竹间就开始关注大模型了,2022年中开始研究,现在我们已在内部进行应用实践。数据梳理和数据标注是两个概念。
雷峰网:具体怎么帮企业选择合适的模型?简仁贤:EmotiBrain 有大模型商店,里面有预训练好的行业大模型,不同任务的专有模型,我们还拥有一套实际的Benchmark系统,可同时训练,评估,及比较多个大模型。如今,我们已经拓展了原有积累多年的自动化机器学习平台和数据标注运营平台,因此在这个系统上,我们可以训练微调出许多不同的大模型,依照企业的需求,实现专属于企业的定制化行业大模型的落地。
比如,在我们今天谈论科技时,全球近80亿的人口中,大部分人对大模型这些高科技概念并不了解,他们碰不到、摸不到、看不到。那么GPT 4的训练语料是谁做的呢?并不一定是GPT 4,可能是收集其他软件的人类使用数据,如 Twitter, Reddit, 等。
而且,我们所做的是能批量生产的模型,就像特斯拉的Model系列一样,我们并非只做一款模型,而是要能生产出N款模型。但我认为,未来有价值的工作会是在训练微调的技术上精进,并将微调工作规模化,为企业大模型落地走完最后一公里路,而不是处在于做同质性的大模型。比如,设定三种模型,三种不同的微调训练方法,以及三种不同的训练数据,就可以训练出27种不同的模型。因此,企业的目标应该是让每个人都能使用到技术,而不是向外界夸耀自己的技术有多么强大。
近8年来,企业对我们的信任度高,我们也深入理解他们在NLP的需求,有助于企业将大语言模型落地。当然,很多国内外的大企业或上市公司都拥有自己的数据,但缺乏的是数据梳理方法——如何沉淀优质数据,然后去训练模型?这是最大的挑战。
雷峰网:所以说,这也是对客户的挑战?简仁贤:对。因此,模型安全至关重要,我们的模型工厂首先能保证数据安全,其次能保证模型安全,确保企业的所有数据都万无一失。
随着今年大模型的爆发,现在大多数客户都明白了大模型能够给企业带来什么样的价值。我们的通用大模型和模型工厂部署到客户端,结合客户的数据和行业know-how,再进行参数调整,便能微调训练出一个7B-65B的大模型。
大模型+知识+应用,才是未来软件的范式雷峰网:业界有人说以前的软件范式是信息+连接,未来是知识+陪伴,您认为未来软件的新范式是什么样的?简仁贤:我认为未来软件的范式是大模型+知识+应用。有些创业公司或大厂在做的大模型都同质性太高,没有差异化,其结果大同小异。实际上,由于不可控的因素,数据安全的隐忧,许多国家和企业已经开始限制使用ChatGPT。雷峰网:为什么开始的这么早?简仁贤:大模型火了之后,后期投入的企业面临逐渐饱和的市场,也就是红海。
我们的愿景是让每个人都能拥有一个机器人。目前,我们正在与数十个客户进行商谈,他们对大模型还是比较接受的。
因此,未来软件的新范式应该是:谁能够做出让用户享受到成果的产品,谁能够把最后一公里打通,就是最有价值的,当然要能保障数据安全,模型安全,并与人类对齐。因此,我认为未来的软件范式是模型+知识+应用。
举例来说,如果要整理过去10年雷峰网的所有文章,筛选出所有与人工智能相关的文章,你们公司有谁可以完成这项任务?需要多长时间?这是一项复杂的任务,需要大量的人力。竹间智能作为一家初创企业为何选择去填补这块空白?其实从简仁贤以往的履历中就能得到答案2006年加入微软负责Bing核心产品的研发、2012年担任微软亚洲互联网工程院副院长,负责微软亚太地区的搜索及AI产品的技术研发,并主导开发微软小娜(Cortana)......可以说,这些宝贵的经验是竹间智能研究NLP的弹药,但这并不意味着其NLP的研发之路是一帆风顺的。
留言0