新知一下
海量新知
6 6 4 4 2 3 6

类脑计算如何进行商业化?灵汐科技:3个切入点|量子位智库 · 圆桌实录

量子位 | 人工智能媒体 2022/09/30 15:31

近年来,深度学习的发展让人工智能逐渐渗透到我们的日常生活当中。深度学习的模型规模也在以指数形式增长;相应的,对算力的需求也呈指数形式增长。除此之外,深度学习也同样面临模型泛化能力不足、鲁棒性不足等挑战。

针对深度学习当前遇到的困境, 向大脑学习 的想法逐渐成为行业内共识。图灵奖获得者Geoffrey Hinton曾表示,克服人工智能局限性的关键在于搭建“一个连接计算机科学和生物学的桥梁”,也就是类脑计算。

Yann LeCun也在论文中提出通过融合深度学习、系统神经科学、认知科学等学科的想法提升系统智能水平,实现自监督学习。

新知达人, 类脑计算如何进行商业化?灵汐科技:3个切入点|量子位智库 · 圆桌实录

那么, 如何将类脑的理论转化为实践,真正赋能现有用户?类脑计算如何在产业界发挥其核心价值?脑科学和计算机科学在融合过程中又将面临哪些挑战?

为了解答这些问题,量子位对撞派「类脑智能」专题邀请到灵汐科技副总经理兼无锡子公司负责人何伟博士与副总经理兼深圳子公司负责人华宝洪,与我们一起进行了深入交流。

对话灵汐科技

对谈嘉宾:

华宝洪(左一):灵汐科技副总经理兼深圳子公司负责人

何伟(左二):灵汐科技副总经理兼无锡子公司负责人

新知达人, 类脑计算如何进行商业化?灵汐科技:3个切入点|量子位智库 · 圆桌实录

Q1 :人工智能现在其实发展到一个比较接近瓶颈的状态。作为类脑公司,我们会觉得人工智能整体的发展路径是怎样的?现在人工智能包括类脑在内有各种不同的技术路线,那这些技术路线之间将来是会融合还是会各自发展呢?

A1 :我们基本上可以把人工智能的发展归成两条线路图,一个就是传统的计算机科学导向,以深度学习为代表的传统的人工智能。这是到目前为止发展最好的线路图。人工智能在静态图像识别、语音的处理、文本的处理,还有推荐算法领域里,确实取得了飞速的发展。 另外一个线路图,是脑科学方向。从脑科学的角度去探索人工智能,相对来讲历史更悠久,目前来看可能是通向通用人工智能的一个“捷径”。人工智能目前面临算力、单一场景、能耗的困境。类脑计算异构融合能融合生物脑科学原理和计算机科学原理,算力强,功耗低,是一条通向通用人工智能的比较好的解决方案之一。

类脑计算可分成窄义类脑计算和广义类脑计算。

窄义类脑计算(Brain-like):模仿脑的工作原理而创新出来的神经形态计算(如SNN芯片设计)、SNN类脑模型、脑仿真、STDP学习方法等。

广义类脑计算(Brain-inspired):不仅局限于SNN网络,还包括融合传统的人工神经网络(ANN)等具有更多类脑特征的异构神经网络,是一种融合当前计算机科学和神经科学的计算发展途径。广义的类脑计算就是同时把计算机算得快、算得准和人脑善于学习、记忆、分析、归纳的优势有机结合起来,包括类脑计算架构、计算系统的完备性、类脑模型算法、学习方法和类脑智能应用(灵汐的选择)。

Q2 :类脑计算真正的核心价值是什么呢?类脑是更快地实现通用人工智能最好的方式吗?

A2 :我认为很难去界定这是不是一个最好的方式。但是目前来看,我们认为异构融合的类脑计算是通向通用人工智能的一条极具潜力的线路图。 从 2014 年开始,我们就开始进行这方面的思考(把脑科学和神经计算科学做融合)。我们很高兴地看到,最近国际上越来越多大咖都开始关注这个研究方向。比如说在 2019 年的时候,Deepmind创始人Hassabis发表了一篇文章,说人工智能和神经科学两个领域应该互相借鉴,互相帮助,互相促进。AI 的研究人员可以从神经计算学获得到灵感;神经计算科学也可以从 AI 的研究中获得验证,这样形成良性的循环,从而促进人工智能的发展。Yann LeCun和图灵奖得主Hinton也在不同场合表达了类似的观点:要克服当前深度学习的局限性,关键是要搭建一个连接计算机和我们生物大脑的桥梁。我们认为这就是类脑计算的发展方向。

Q3 :关于脑科学部分,我们需要在计算机里对一些神经突触等等做高精度的模拟。但就现在脑科学发展的程度,我们去模拟大脑内部精细的结构,是否已经达到了一个足够的水平了?

A3 :我认为要从两个方面来考虑这个事情。第一是我们对大脑的理解,得益于过去 20 多年来科技的不断进步突破,我们对大脑的观测理论、观测方法、观测仪器都得到了非常大的突破。比如说一些典型的:光遗传学技术,钙离子功能成像技术,Clarity透明解剖技术等等,这些技术让我们对大脑工作原理的理解越来越深入。 另外一个方面是关于仿真系统。这方面在世界范围内,有专门做脑仿真的加速器。比如说英国基于ARM架构的SpiNNaker ,还有德国的BrainScales,这些芯片的设计实际上都是为了脑仿真。但这些系统都是基于实验室性质的,很难进行规模化推广。所以现在大部分进行脑科学研究的人员,还是以 CPU计算为主。这就需要一套高效的、商用的脑仿真系统来解决当前的困境。

针对这种情况,灵汐推出了 KA200 芯片,我们可以对脑仿真进行比较好的支持。比如说现在我们可以支持NEST框架,支持对脑区神经元的模拟,以此促进脑科学研究。

Q4 :对于灵汐来说,在计算机科学和生物的跨学科融合过程中,有出现过一些的瓶颈吗,我们是怎么样去解决或者说怎么样在产品上做出改进的?

A4 :类脑计算研究的一个典型特点是跨学科研究,是学术界面临的一个通用问题,涵盖计算神经学、认知科学、计算机技术、自动化控制、电子工程技术、材料科学等等,需要各个学科之间的交叉融合。但是,既精通神经计算学和生物学,又精通计算机技术和电子技术的复合型人才非常稀少。针对这种挑战,灵汐科技与清华大学、北京大学等科研团队合作,各个学科的科研人员经常定期开研讨会,经历长期的研究碰撞,成果往往是颠覆性的,由此也发表了多篇有影响力的论文。

Q5 :灵汐现在采用的是一个异构融合的方案,当时为什么会选择这样的一个开发方案?可以结合我们开发历史以及客户需求谈一下。

A5 :在学术理论方面我们经过反复的探讨,最终提出异构融合。现有的计算机技术有很多优点,我们再往前走的时候,需要基于现有技术进行嫁接。我们认为类脑智能是计算机技术和人脑方面的技术融合。

技术融合实际上有几个层次,一个是在算法方面,我们要做这个两方面的融合。在架构方面,在芯片架构、软件、理论、编码方面都要做融合。

从市场和用户的选择角度出发,我们需要从产业层面思考如何去落地技术的异构融合。我们现在可能有 90% 以上的用户,都是我们传统的 AI 的用户,我们在选择异构融合的时候,首先要考虑到如何保护我们已有的用户。所以我们首当其冲必须要满足传统的人工智能这条线路图上的要求,这是不可避免的。 另外一个脑科学线路图,比如说很多做大脑的MRI成像,做数字孪生,包括元宇宙,它们更多关注到我们大脑的微观世界。那么这个时候我们的类脑芯片就可以发挥很好的作用。

所以从这两个角度来说,脑科学和传统的 AI 其实都是有需求的,于是我们提出异构融合的计算方向。

Q6 :那现在这种异构融合的设计方式,有没有一些在量化指标上的提升?基于这样的一种架构,产品在边端能够体现出多大的优势,或者说在某些场景中有一个非常明显的相对于传统芯片的领先吗?

A6 :从边缘计算的角度,我觉得用户永远关心的一个点是性价比。KA200采用的是异构融合的架构,在整个计算的能效比和性价比方面,我们做了一个初步的评估,会比当前主流的GPU方案在能效比上高出两倍。我们的能效比对用户来讲非常有优势,因为边缘计算的产品,用户不需要那么大的功耗,需要既能满足小而精,又能满足能效比和性价比的要求,这是非常重要的点。

Q7 :除了像边端这种实际场景,如果我们从架构的理论角度来讲,它相对传统架构的一个指标提升大概会是什么?

A7 :我们采用的异构融合架构涉及到各个层面的融合,实际上包含三个主要的点:时域和空域的融合,精确计算和近似计算的融合,数据流和指令流的融合。这是我们异构融合的三个核心。通过在清华大学一路以来,天机芯一代,二代,三代,到我们现有的 KA200 芯片,这些芯片、算法和理论的不断迭代之中,我们的能效比和性价比确实比当前的解决方案要提升两倍甚至两倍以上。所以我们认为这确实是一个比较好的方向,来推动我们芯片的性能往前走。

Q8 :我们看到KA200芯片支持两种模式,包括稠密模式和稀疏模式。这两个模式有什么区别?

A8 :稀疏模式和稠密模式主要指的是KA200在做类脑计算时所涉及的。从类脑计算的角度,稀疏模式更多跟我们大脑的工作方式更加贴近。稠密模式更加贴近于我们现在传统深度学习(数据计算密集),深度学习的数据很规整,计算密度很高(高密度矩阵运算)。 但真正从类脑计算的角度,我们大脑实际上更多是稀疏计算。我们活跃的神经元是稀疏的,860亿的神经元中可能平常处于活跃状态的神经元只有 1% 左右。

另外,神经元和神经元之间的脉冲发放是稀疏的,并没有时刻把上一个神经元激励的信号发给下一个神经元。因为神经元的发放必须要满足spike的发放条件,只有刺激到了一定阈值之后,它才会发放一个spike到下一个神经元。所以神经元信号的传递也是稀疏的。第三,神经元之间的突触连接不像传统的人工神经网络是全连接的,神经元突触的连接也是稀疏的,它可以根据自己的需要随时选择要跟哪个神经元的突触进行连接。

所以从类脑计算的角度来讲,稀疏模式更加适合;稠密模式更适合传统深度学习运算。另外,稀疏也便于节能低碳,人脑 860 亿神经元功耗只有 20 瓦左右。

Q9 :KA200在技术上会有这两种不同的倾向,那灵汐整体在商业落地上,我们看到会有脑仿真,类脑方向的新型应用以及传统AI 行业三大市场。在商业化布局上,三者间会有各自的侧重,或者说有先后顺序吗?

A9 :我们不存在先后顺序。我们不去选择顺序,用户选择顺序。至少目前为止,KA200在传统AI领域,在我们独特的脑仿真和类脑计算领域,还有我们的类脑计算融合领域,这三个领域里,都有不同的客户群同时在跟进。从用户反馈来看,最迫切的需求是我们类脑计算的脑仿真。就跟我们玩游戏一样,急需要有一款显卡来做加速、渲染。同样地,我们在脑仿真里,也需要一个硬件平台来做加速。我们希望大规模脑仿真的时间越短越好,现在正常的生物脑仿真,用GPU或者超算做的话可能是1秒钟的生物脑仿真需要200到500秒的时间完成(200/500:1)。如果用我们的KA200或者未来的KA600来做,可以做到 10:1 以下,甚至 1:1 以下,这是生产效率的提高。在脑仿真领域,如何提高脑仿真效率对于用户来讲是一个很大的痛点。

KA200也支持传统的深度学习领域,对于性价比和能耗比有需求的场景,能够发挥KA200芯片的优势。未来,KA200还能够支持AI训练。

异构融合计算未来在小样本学习领域会有大的发展,现在大家关注的自动驾驶,需要拿大量的数据去训练,但不可能把所有的场景穷举;如果需要一些小样本数据,就可以处理各种复杂的场景,这也是一个用户痛点,预计异构融合在这个领域会是有一个大的爆发点。所以我们没有顺序的选择,只有用户选择我们的顺序。

Q10 :刚才提到的三个市场,它们可能各自有比较典型的用户群体,那么具体的应用场景大概会是什么样子?特别是类脑方向的新兴应用和传统AI行业。

A10 :传统AI行业最典型的应用场景就是泛安防。这个应用在中国是最成熟的,也是算法各个方面创新用的最多的。其实在这个领域最关心芯片的能耗比、性价比,我觉得这个是最成熟的。 脑仿真和类脑计算领域,我们的生物大脑,是可以通过MRI或者CT的影像学加上数据的同化,通过数学的建模可以构建出一个数字孪生大脑。通过这样的数字孪生大脑,我们可以得出一个结论,比如这首音乐我听完是很轻松的,很愉快的。那么数字孪生大脑构建出来之后,听到这个音乐,它对这个音乐的反应是80%以上,跟人的生物大脑的反应是一样的。

最终,所有的生物建模都可以通过类脑计算去做,原来用GPU做可能很慢,但是我们期望用我们的KA200、KA600去做,建模时间就会很短。

另外一个比较“魔幻”的领域是元宇宙,我对元宇宙的理解,或者说从类脑计算和神经科学的角度,对元宇宙的理解是真实大脑和虚拟大脑之间的交互和融合。我可以和虚拟的孪生大脑交互:我可以和其他人的孪生大脑交互,可以和“以前的我”进行交互,甚至是“未来的我”。我希望在这个领域里,灵汐能够给大家做一些赋能。

Q11 :我们看到市场上也有一些新玩家进入,灵汐作为一个先行者,会觉得哪些场景是相对比较容易切入,或者说更有助于后来者帮助这个产业变得更加繁荣?

A11 :这个问题我认为是所有的合作生态伙伴都要考虑的问题。从类脑计算的角度,有几个方面是可以切入的。第一个,它从传统应用场景里着手,如何去选择一个高性价比、高能效比的产品,结合它自己的一些创新,做一些比别人更具有能效比和性价比的产品,我认为这是一个切入点。在成熟市场里头,你只有选择一个比别人更具性价比和能效比的产品你才有可能(成功)。

灵汐 KA200 这款异构融合的芯片做出之后,我们确确实实能给我们合作伙伴产品的性能提升一倍、两倍。另外,我们的算法已经在芯片上做了优化,可以大大降低算法研发人员的投入,加快产品迭代的进度。在传统 AI领域里,如何更快速地迭代有竞争力和性价比产品,这对用户来讲非常重要。传统 AI应用里,一定要比别人更快地迭代出更具有性价比的产品。

第二个就是我们现在的类脑方向,比如说服务机器人,车路协同/自动驾驶这样的场景。这些场景正处在一个发育期,还没有到爆发期。在这些场景下,大家都在做尝试、试错,目的是能够走出一条与众不同的线路图来。现在大家都在发力做自动驾驶芯片和高端服务机器人,这些都是偏边缘端的应用,在这种场景下如何让主控系统/车载系统具有小样本学习能力,在线学习能力,边缘端学习能力等。

第三个切入点是跟合作伙伴一起去探究我们大脑本身的奥秘——中国脑计划(科技部2030脑计划)。中国脑计划的“一体两翼”:脑认知为主体,以类脑计算和脑机结合为一翼,以脑疾病治疗为另外一翼。 我们的最终目的还是以服务于生命健康,服务于人类自身的健康。我们希望能够在脑科学和生命健康领域里,比如促进治疗脑疾病的节奏,促进新药的研发等,去做一些别人做不了的工作。 此外,类脑计算跟传统的深度学习(相比),还是有比较大的区别。深度学习它是严重的数据依赖。在类脑智能这个方向,实际上会弱化对数据的依赖。在数据之外,对算法的模型、知识模型等方面都会更加重视。新的公司如果选择往这个方向,可以摆脱数据的制约,具有更强的自主性。所以说我们也欢迎大家一起来共同推动类脑计算的生态再往前走。

Q12 :刚刚提到说类脑计算有助于摆脱对数据的依赖,但它同时也需要很多不同层级上的设计和优化。我们看到清华大学类脑计算中心在 Nature 的发文,三年分别探讨了架构,软件编译和算法模型三个不同的层级。这个顺序和灵汐的整个研究思路是一致的吗,还是说也是我们在实际过程中发现的客户或者应用需求?

A12 :类脑计算的理论研究方面,清华大学类脑计算研究中心和灵汐的一部分成员实际上很早就开始在这个方面进行探索,从2014,2017年的天机芯1代、2代出来,我们在2019年的时候发表了第一篇论文,2020年、 2022年分别发表了软件和算法方面的论文。类脑架构方面的论文先出来,主要是研究如何在架构层面支持ANN和SNN。第二篇讲的是类脑编译软件方面,我们提出了类脑计算的完备性。第三篇主要是针对类脑算法,我们提出了全局训练和局部学习相融合的算法,用来更好地支撑在线学习模型的开发。 虽然这些有先后顺序,但我们的研究实际上是同步开展的。刚才也讲到类脑研究实际上是各个学科的一个综合研究,要求我们必须是在全局的、系统的,在顶层就做一些很深入的探讨之后才能往前走一步。实际上在我们的第一篇 Nature 出来的时候,在它的附录里面,有涉及到算法和软件,只是它们的理论在成熟时间上可能有先有后,但我们都是同步往前走的。

Q13 :相对于整个类脑领域的发展来说,在不同的层级上,现在会有发展速度或者是重要性的排序吗?面临的瓶颈是什么?

A13 :我认为类脑计算的特殊性在于这是一个跨学科跨领域的事情,最大的难点还是如何把不同学科、不同背景的人聚在一起,共同探讨、碰撞出一个新的方案,这个是最难的。至于重要性排序,我认为哪个都很重要,缺一不可。

Q14 :您刚提到了全局观,引向了另外一个问题,关于新计算方式的产业生态:比如说像英伟达和它的CUDA生态,导致它能够在整个 CPU 领域有很高的市占率。对于类脑计算这样一个新兴领域,从灵汐的角度来看,产业生态应该怎么样布局,怎么去跟现有已有的 AI 芯片生态做融合,或者说去做一个竞争?

A14 :对于任何一个芯片企业来讲,生态是必要的。一个芯片公司,如果没有生态,这个芯片公司(的生存)我认为基本上就比较困难了。英伟达 CUDA 的开发者差不多 300 万以上,我们国内 CUDA 的开发者应该是 50 万左右。 那么英伟达从一个做游戏加速的厂家,演变成一个对深度学习的关键的、底层生态主要提供者,也有十多年的演变过程。但是纵观它的生态,最终是要给所有使用英伟达硬件的用户提供一个更好的软件体验,只要用了英伟达的GPU卡,我会让你的数据跑得更快,跑得更好,这是一个非常重要的点。

英伟达并不是软件框架的提出者,它是在传统的TensorFlow、Pytorch等框架上,结合GPU的特点与优势做了非常好的支撑链。

对灵汐来讲,我们是做类脑,那么我们就要考虑用户在类脑上的需求是什么。首先是对传统AI的满足,如何去满足它传统的这个生态、传统投入的一些保护。另外未来类脑计算领域里头,我们也希望能跟英伟达一样,能提供类脑方面的加速器。

在建立我们自己的生态时,我们关注两个方面,一个是我们传统AI 的合作伙伴,我们想让他做到跟英伟达相同、相近的用户体验。我们不可能说去完全超越,这个挑战非常大,但至少在用户体验上我们可以做得很好。另外一个就是我们要去做类脑领域里特殊的框架。当然那,我们也支持主流的框架,像NEST这些主流框架,我们也开始要支持国内第三方的框架,像PaddlePaddle、鹏城的惊蛰框架,所以我们也会在这个领域里去做一些支持。

所以,我们在传统的 AI 领域里、在类脑计算领域里头,其实我们都是在给用户提供一种比较好的用户体验。

从建生态的角度,我们是分层级的。最下面是我们的芯片,从我们的 IP授权到 SOC ,往上是汇编器,再往上是高层编译器,这之上是学习框架,框架上头是各种算法,算法的上头是我们应用厂家的合作伙伴。所以我们从底下一层一层往上。我们定义了不同级的合作伙伴,因为每个合作伙伴他的侧重不一样,比如有些研究院所可能偏重框架,有些高校更偏专用算法的开发,还有些合作伙伴偏应用。所以我们是根据不同的用户的强项和想要发展的方向,定位出不同的合作层级,不同的合作伙伴在不同层级里做出的成果,可以分享给不同的合作伙伴,这样的话我们是共赢的。

Q15 :刚提到像灵汐做了一个前瞻性布局,那未来在类脑这个领域,它的上下层会不会有一个比较强的绑定,或者说这个行业将来是会倾向于一体化的解决方案吗?

A15 :在前期的时候,架构还是处于发展阶段,刚开始的时候基于架构开发软件,基于软件开发应用,可能确实会做一些定制化的、强绑定的开发。到后期的时候我觉得还是会分层,各个层的话可能都会出现一些典型的公司来把这一层做得更好,使整个类脑智能系统的性能更优。 “一枝独秀不是春”,类脑计算肯定是要很多的合作伙伴大家一起来做,才是“百花齐放”。灵汐科技是芯片公司,我们关注的是硬件,是我们芯片的架构,是如何给用户输出他想要的东西,我们提供底层的编译器,让用户能在我们底层编译器上得到一个非常好的一个用户体验,就跟英特尔一样。英特尔除了提供 CPU 之外,它提供自己的一个加速库,同时英特尔又给所有的合作伙伴开放,比如说开发语言里头有 VC,有 GCC 等各种的编译器,都会给开放,然后 GCC 的上头又有各种的图像加速库,然后机器学习的算法库。

这是一个生态问题,我们只关注于最底层的、最原创的那块,剩下的就是与合作伙伴一起,大家去共创共赢。尤其是国内处于一个刚刚起步阶段,高校和科研院所的老师热情都非常高,他们也愿意投入到类脑领域来和灵汐合作。现在我们的合作伙伴差不多有小一千家,每家的强项都不一样。刚开始的时候,我们会出一个参考方案,我们会给用户开放 ,用户去做自己的定制化的东西,再给别人分享 ,这样的话大家都可以共同成长。Q16: 灵汐作为类脑领域的引领者,分别从技术和落地应用两方面来看,我们会觉得国内的类脑芯片大概发展到了一个什么阶段,下一个有里程碑意义的现象或者节点是什么?

A16 :类脑智能的话我们认为分四个层次:最底下的是计算智能,然后是感知智能,然后再上面一层是认知智能,最上面是自主智能。在自主智能的时候,智能体会自主学习,可能会产生自主意识。

当前,我们认为当下人工智能处于计算智能和感知智能交接的部分。我们有计算智能的一部分,还有感知智能一部分。

再往下走的时候,我们认为首先要融合更多的感知智能进来。像我们人之所以这么智能,是因为我们有视觉、听觉、触觉、嗅觉。计算机科学又赋予了我们其它感官,比如说超声波,雷达,还有其他一些新型的感知方式,这些数据都会融合在一起,从而提升整个智能体的感知能力。

第二个方向就是要在算法模型方面,比如新型的类脑算法,它的功能比如说小样本学习,在线学习,大模型收敛等方面,都需要做更进一步的探索,然后在算法方面取得真正的突破。

第三部分是为了支撑更好的算法,我们需要有软件、硬件,还有类脑框架等方面的协同发展,从而更好地支撑算法模型的开发,加速和迭代。

Q17 :在应用端或者说市场需求端的话,下一个比较重要的节点是什么?会是它在某一个场景中的市占率或者说广泛的认可度达到一个什么标志吗?

A17 :其实这是一个市场选择的问题,现在用户市场反馈最强烈的是对传统AI 90%以上场景的满足,像安防、车路协同等等。那么我们必须在这些领域里,给用户高能效比、高性价比的产品输出;同时我们要给用户清晰的技术发展线路图。 灵汐做完这个工作之后,将来有可能在现有的工具上做一些更具有前瞻性的拓展性。比如说我刚才提到的DNN和SNN融合,就是异构融合这样的网络。那将来在保持数据准确率的情况下,能降低一个计算的数量级,精度可能只丢了一个点两个点,但是整个计算的数量降了一个数量级,意味者更高能效比。

用户发展到一定阶段,他肯定会关注这个点。我觉得我们现阶段先满足用户在传统AI这个领域的需求,同时给用户提供足够多的、未来 3 - 5 年的发展需要。

在脑仿真和类脑计算领域,灵汐目前提供了非常好产品。国外英特尔的Loihi1、Loihi2、SpiNNaker都没有量产,只是给研究用,不是给工业用。那么我们其实是国内第一家实现量产的类脑芯片公司,我们希望大家能把这个芯片用好。

另外我们也积极地跟合作伙伴一起做类脑的生态,我们希望有10家、20家,100家甚至1000家的合作伙伴,大家一起去打造这个生态,这是关键点。用的人越多,我们用户的选择也就越多。

Q18 :在整个大领域里,灵汐的长期定位是什么?作为第一家实现量产的类脑计算公司,从整个全球范围看,灵汐觉得自己需要保持的一个核心优势是什么?

A18 :首先,我们的定位是致力于创造持续自主进化的新型智能体,这是我们的一个终极目标。灵汐科技要做类脑计算和类脑智能的创新者、开拓者和领导者,这是我们一直以来的追求。

如何理解创新者?首先,异构融合本身就是在类脑计算领域里的一个创新点,这是我们首先提出来的,所以我们要做类脑计算里头的创新者。 第二,我们要做开拓者。在创新之上,把更多的合作伙伴拉进来,打造独具特色的类脑计算产业链,这是需要开拓的。

第三,我们最终目标是希望做类脑计算领域里的领导者,推动整个类脑计算往前繁荣发展。

更多“类脑计算”相关内容

更多“类脑计算”相关内容

新知精选

更多新知精选