• 我的订阅
  • 科技

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

类别:科技 发布时间:2024-06-27 09:25:00 来源:新智元

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

新智元报道

编辑:编辑部

【新智元导读】史上最快Transformer芯片诞生了!用Sohu跑Llama 70B,推理性能已超B200十倍,超H100二十倍!刚刚,几位00后小哥从哈佛辍学后成立的公司Etached,宣布再融资1.2亿美元。

有史以来最快的Transformer芯片,刚刚诞生了?

去年21岁哈佛辍学华裔小哥的神级创业故事,进化到了新的阶段。

这一次,号称专为LLM推理加速打造的Sohu芯片,已经成超越Groq,成为最强AI芯片。

如今的Sohu,在跑Llama 70B时每秒可生成高达500000个token的输出。

换句话说就是:1张Sohu≈20张H100≈10张B200。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

在去年12月,Etced就曾火过一阵,当时两位哈佛辍学小哥的2人公司,估值已经高达3400万刀。当时Sohu号称LLM推理性能达到H100的10倍,单价吞吐量更是高达140倍。

而就在刚刚,Etced又宣布了炸裂的新消息:已筹到1.2亿美元。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

就在上周,英伟达的市值达到3.3万亿美元,超过微软成为全球第一。而Etched相信,自己的35人团队能够击败英伟达。

他们的豪放预言,得到了硅谷真金白银的支持。投资名单中,是一众豪华的机构和硅谷大佬,包括Peter Thiel。

Primary Venture Partners和Positive Sum Ventures领投了这轮融资,机构投资者包括 Hummingbird、Fundomo、Fontinalis、Lightscape、Earthshot、Two Sigma Ventures和 Skybox Data Centers。 天使投资者包括Peter Thiel、Stanley Druckenmiller、David Siegel、Balaji Srinivasan、Amjad Masad、Kyle Vogt、Kevin Hartz、Jason Warner、Thomas Dohmke、Bryan Johnson、Mike Novogratz、Immad Akhund、Jawed Karim和Charlie Cheeve。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

Etched创始人之一Gavin Uberti表示,「我们正在押注人工智能领域最大的赌注——一种只能运行Transformer模型的芯片,但其运行速度比GPU快几个数量级。也许注意力确实是你所需要的全部...」

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

Pika研究人员表示,每秒50万token简直太疯狂了。你可以在2秒内写出「圣经」,或者一年内生成15万亿token。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

Sohu大约每秒能输出21个人一天说的话,简直太不真实了。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

Thiel Fellowship的主任Alex Handy,对几位年轻人表示了高度的赞许:「投资Etched是对 AI 价值的战略性押注。他们的芯片解决了竞争对手不敢面对的可扩展性问题,挑战了同行中普遍存在的停滞状态。」

在他看来,正是因为几位小哥做了底层的工作,硅谷的程序员们才能继续安心编程,不必担心正在开发技术的底层出问题。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

两年前开始的豪赌

这个传奇的故事,始于两年前。

2022年,几位创始人就打赌:Transformer将占领世界。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

为此,他们花了两年时间打造Sohu,这是世界上第一个用于Transformer的专用芯片(ASIC)。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

将Transformer架构烧录到Sohu芯片后,它无法运行大多数的传统AI模型:比如DLRMs、AlphaFold 2,或Stable Diffusion 2;也无法运行CNNs、RNNs或LSTMs。

但对于Transformer来说,Sohu确实是有史以来最快的芯片。但它还可以更快。

对于Llama 70B,Sohu的吞吐量每秒超过了50万个token,因此它可以构建在GPU上根本不可能实现的产品。

而且,它甚至比英伟达的下一代Blackwell(B200)更快、更便宜!

如今最先进的AI模型,无一不是基于Transformer的,比如ChatGPT、Sora、Gmini、Stable Diffusion 3等等。

如果Transformer被SSM、RWKV或任何新架构取代,那Sohu将毫无用处。

但是,创始人小哥表示,如果他们押对了,Sohu将彻底改变世界!

这,就是一场豪赌。

Scale是「超级智能」所需的全部?

五年内,AI模型在大多数标准化测试中,超越了人类。

这是怎么做到的?

因为Meta用于训练Llama 400B(2024年SOTA模型)的计算量,比OpenAI训练GPT-2(2019年SOTA模型)多5万倍。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

OpenAI用Scaling Law预测了GPT-4性能,并预计GPT-5+同样适用

奥特曼曾说过,「扩展参数规模确实非常重要。当我们在太阳周围建造了一个戴森球(Dyson Sphere)之后,我们才可以考虑讨论是否应该停止这么做,但在那之前不应该停下来」。

也就是说,通过向LLM提供更多的算力和更好的数据,才使得AI变得更加智能。

不得不承认,参数规模扩展(Scale)将会是几十年来唯一持续有效的方法。

每个大型AI公司(谷歌、OpenAI/微软、Anthropic/亚马逊等)都在未来几年投入超1000亿美元来继续扩大LLM规模。

然而,再扩展1000倍必定是昂贵的,形象地解释,下一代数据中心的成本将超过一个小国的GDP。

按照目前的发展速度,我们的硬件、成本、财力根本无法跟得上。

GPU撞墙了

圣克拉拉,英伟达总部所在地,不愿意让人知道的小秘密是——

GPU性能其实没有变得更好,只是变得更大了。 过去四年里,芯片单位面积的计算能力(每平方毫米的TFLOPS)几乎没有提升。

就比如,英伟达的B200、AMD的MI300、英特尔的Gaudi 3,以及亚马逊的Trainium2都将2个芯片集成到一张卡上,以使其性能翻倍。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

如下曲线图中,也可以看出,从2022年-2025年,AI芯片并没有真正变得更好只是变得更大了。

在过去四年中,计算密度(TFLOPS/mm^2)仅提高了约15%。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

而现在,随着摩尔定律的放缓,提高芯片性能的唯一途径,便是让其走向「专用」化。

专用芯片,势在必行

在Transformer占领世界之前,许多公司构建了灵活的AI芯片和GPU来处理数百种不同的机器学习架构。

举几个例子:

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

却从来没有人制造,针对特定算法的AI芯片(ASIC)。

因为,全新的芯片项目需要花费5000万-1亿美元,甚至要用许多年的时间才能投入生产。

当Etched开始着手这一项目时,根本就不存在这样的市场。

突然间,这种情况一下子发生了转变。

ChatGPT出现之前,Transformer的推理市场规模大约是5000万美元。

而现在,已经达到数十亿美元。所有的科技巨头,初创公司都在使用Transformer模型。

大模型架构,都在走向融合趋同。自从GPT-2诞生以来,最先进的模型架构几乎保持一致!

OpenAI GPT系列、谷歌PaLM、Meta Llama,甚至特斯拉的全自动驾驶系统,都采用了Transformer架构。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

当模型的训练成本超过10亿美元,推理成本超过100亿美元时,专用芯片的出现是必然的。

在这种巨大参数规模之下,即使只有1%的性能提升,也足以证明5000万-1亿美元的定制芯片项目是值得的。

实际上,ASIC的速度要比GPU快很多个数量级。

Transformer拥有巨大的护城河

Etched.ai的几位创始人表示,他们相信硬件彩票——能在硬件上运行得最快、最便宜的模型,就是获胜的那一个。

而Transformer拥有巨大的护城河,足以在替代方案成熟之前主导各大AI计算市场。

理由如下——

1. Transformer正在为每一个大型AI产品提供支持,无论是Agent、搜索还是聊天。

为了优化GPU去适应Transformer,AI实验室已经在研发上投入了数亿美元。

无论是当前还是下一代SOTA模型,都是基于Transformer的。

2. 随着未来几年模型训练的规模从10亿美元扩大到100亿美元,再到1000亿美元,测试新架构的风险也急剧上升。

与其重新测试Scalling law和性能,不如把时间花在基于Transformer的功能开发上,比如多token预测。

3. 当前的软件栈,已为Transformer进行了优化。每个流行的库(TensorRT-LLM、vLLM、Huggingface TGI等),都有在GPU上运行Transformer模型的专用内核。

许多建立在Transformer之上的功能,比如推测解码、树搜索等,在替代方案中都很难得到支持。

Sohu可以通过树搜索更好地编码,能够并行比较数百个响应

4. 未来的硬件栈,也将为Transformer进行优化。比如英伟达的GB200,对Transformer Engine就有特殊的支持。

随着像Sohu这样的ASIC进入市场,将会带来一种不可逆的趋势。

也就是说,作为「Transformer Killer」的模型需要在GPU上,运行得比Sohu上的Transformer更快。

而但凡出现这种情况,创始人表示,他们也会为此构建一款全新的ASIC!

Sohu支持多重推测解码,可以实时生成新内容

Sohu来了!

Sohu是世界上第一个Transformer ASIC。

通过专门化,Sohu获得了前所未有的性能。一台8xSohu服务器每秒可以处理超过50万个Llama 70B token,等效于160块H100 GPU。

Sohu仅支持Transformer推理,并支持当今所有的模型(Google、Meta、Microsoft、OpenAI、Anthropic等),以及处理未来模型的调整。

无论是Meta的Llama、谷歌的Gemini、OpenAI的GPT、Anthropic的Claude、还是Stability AI的Stable Diffusion 3等等,都可以。

由于Sohu只能运行一种算法,因此绝大多数的控制流逻辑可以被移除,从而允许其拥有更多的数学模块。

结果就是,Sohu的FLOPS利用率高达90%以上;相比之下,使用TRT-LLM的GPU仅为为30%左右。

如何实现比GPU更多的FLOPS?

目前最先进的算力——英伟达H200,在没有稀疏处理的情况下具有989 TFLOPS的FP16/BF16算力。(超过了Google的新Trillium芯片之一)

而2025年推出的GB200,将会在算力上增加25%(每个芯片1250 TFLOPS)。

由于GPU的大部分面积都用于可编程性,因此专注于Transformer可以容纳更多的算力。

从基本原理上来看,这一点可以很容易被证明:

制造一个FP16/BF16/FP8乘法加法电路(所有矩阵数学的基础构件)需要10,000个晶体管。H100 SXM有528个张量核心,每个核心有4×8×16个FMA电路。通过计算可以得到,H100有27亿个晶体管专用于张量核心。

实际上,H100拥有800亿个晶体管!这意味着在H100 GPU上的晶体管中,仅有3.3%用于矩阵乘法!

但问题是,如果想要为各种模型(CNN、LSTM、SSM等)都提供支持,就不得不采取这样的设计。

这时,如果选择只运行Transformer,就可以在芯片上容纳更多的FLOPS,且无需依赖更低的精度或稀疏处理。

推理的瓶颈是内存带宽,而非计算?

事实上,对于像Llama-3这样的现代模型,并非如此!

使用英伟达和AMD的标准基准测试——2048个输入token和128个输出token,大多数AI产品的输入都要比输出长得多(即使是新的Claude聊天,系统提示也有1000多个token)。

在GPU和Sohu上,推理是以批次运行的。每个批次都会加载一次所有的模型权重,并在批次中的每个token上重复使用它们。

通常,LLM的输入是计算密集的,而LLM的输出是内存密集的。所以,当我们将输入和输出token与连续批处理结合时,工作负载就会变得非常「计算密集」。

下图的示例中,就展示了连续批处理LLM的过程。

这个过程中,会运行带有四个输入token和四个输出token的序列;每种颜色代表一个不同的序列。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

同样的技巧,就可以扩展到2048个输入token和128个输出token的Llama-3-70B上。

要让每个batch,都包含一个序列的2048个输入token,和127个不同序列的127个输出token。

如果这样做的话,每个batch将需要大约(2048+127)×70B参数×每个参数2字节=304 TFLOPs,同时只需要加载70B参数×每个参数2字节=140 GB的模型权重,以及大约127× 64×8×128×(2048+127)×2×2=72GB的KV缓存权重。

这需要的计算,就远超过内存带宽的需求,因为一个H200需要6.8PFLOPS的计算能力,才能最大化其内存带宽。

而且,这是在100%利用率的情况下——如果利用率是30%,需要的计算能力还要多出3倍。

由于Sohu有极高的计算能力和高利用率,我们就可以在不受内存带宽限制的情况下,运行巨大的吞吐量。

注:在现实世界中,batch通常更大,输入长度各不相同,并且请求会以泊松分布到达。在这种情况下,Sohu的效果会更好。在这里之所以使用2048/128基准作为例子,是因为英伟达和AMD都在使用。

只需编写Transformer软件即可

无论在GPU和还是TPU上,软件都是一场噩梦。

处理任意的CUDA和PyTorch代码,需要的编译器极其复杂。

为此,AMD、英特尔、AWS这些第三方AI芯片,都在软件上投入了数十亿,但效果依然不佳。

这里,Sohu的好处就体现出来了——因为它只运行Transformer模型,所以我们只需要为Transformer模型编写软件!

大多数运行开源或内部模型的公司,都会使用特定的Transformer推理库,如TensorRT-LLM、vLLM或HuggingFace的TGI。

这些框架往往很死板,虽然我们可以调节模型的超参数,但并不支持更改底层的模型代码。

但是,没有关系!所有的Transformer模型都非常相似(即使是文本、图像、视频模型),调节超参数就足够了。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

这样,就足以支持95%的AI公司了,不过,最大的AI实验室,仍然会进行定制化开发。

工程师团队会手动调优GPU内核,以挤出更多的利用率,并进行逆向工程,比如哪些寄存器对每个张量核心的延迟最低。

而创始人声称,有了Etched,我们就不再需要逆向工程了!

从驱动程序到内核再到服务框架,Etched的所有软件都会是开源的。

如果我们想实现一个自定义的Transformer层,内核专家完全可以自由地去做。

Etched已经破纪录,将成历史第一

现在看起来,Etced的决定很疯狂。

但更疯狂的是,他们是在2022年做出这项决定的——那时ChatGPT甚至还不存在!

当时,图像和视频生成模型还是U-Net模型,自动驾驶汽车是由卷积神经网络(CNNs)驱动的,Transformer架构还远未普及。

而现在,形势显然对他们非常有利。如今从语言到视觉,每个领域的顶尖模型都是Transformer。

这种趋同验证了Etced的前瞻性,更使Sohu成为十年来最重要的硬件项目。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

种种迹象表明,公司正走在史上最快芯片发布的进程中——

- 顶尖的AI研究人员和硬件工程师纷纷离职原团队,加入Etced;

- Etced会直接和台积电合作开发4nm工艺,并且获得了足够的HBM和服务器,第一年的产量可以快速提升;

- Etced的早期客户,已经预订了数千万美元的硬件

「如果我们是对的,Sohu将改变世界」

如果AI模型在一夜之间,速度飙升20倍,且成本降低20倍,会发生什么?

目前,Gemini需要60多秒才能回答一个与视频相关的问题。

编码智能体的成本,比软件工程师更高,而且需要数小时才能完成任务。

视频模型每秒只能生成一帧,甚至ChatGPT注册用户达到1000万时(仅占全球用户的0.15%),就耗尽了OpenAI的GPU容量。

即便是持续以每两年2.5倍的速度增加GPU的容量,也得需要10年时间,才能实现「实时」视频生成。

而现在有了Sohu,这一切将瞬时完成。

网友表示,「AI的未来是定制硬件,实时视频模型即将现世」!

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

如果当实时视频、通话、AI智能体和搜索功能终于能够顺畅运行时,会发生什么呢?

很快,你就能知道了。

三位哈佛辍学生,挑战AI芯片霸主英伟达

成立于2022年,这家35人团队的初创公司Etched,坚信一定能够击败英伟达。

到底是什么样的背景,能让三位哈佛辍学生,敢于挑战芯片行业目前最炙手可热的赛道呢?

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

Robert Wachen、Gavin Uberti、Chris Zhu

创始人兼CEO Gavin Uberti自2020入学哈佛攻读数学专业,随后在2022年攻读硕士学位,专业是计算机。

不过,这两段上学经历,都以辍学告终。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

在创办Etched之前,Gavin Uberti曾在另外两家公司分别有过一段全职和简直经历,担任了算法和后端工程师,以及软件工程师。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

在进入大学之前,他参与了美国最著名的青少年科技创新大赛FIRST Tech Challenge,团队获得了Top 10奖项。团队开发的自动驾驶软件排在600个参赛团队第二名。

他还曾在2019年,拿过美式数学竞赛的冠军。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

另一位创始人Chris Zhu,也是在哈佛就读时就在校外疯狂实习,甚至还没有从哈佛毕业,就已经成为兼职教员。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

他个人的工作经历更为丰富些,不仅在高校MIT担任研究员、哈佛兼职教学研究员,还曾在亚马逊等公司做过实习。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

最后一位联创兼COO Robert Wachen是一个多领域的创业者,曾创办了4家公司。

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!

接下来,就看看他们会如何去缔造一个新的硅谷神话。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-06-27 12:45:01

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

史上最快AI芯片「Sohu」,速度10倍于B200,哈佛辍学生打造
...是 GPU 的 140 倍。大模型时代,全球都缺算力,买铲子的英伟达市值被炒上了天。现在,终于有一家公司带着自己的 AI 芯片来叫板了
2024-06-27 09:24:00
全球首款Transformer专用AI芯片Sohu发布:比英伟达H100快20倍
...大型模型时展现出了惊人的性能,其速度超越了行业巨头英伟达的H100高达20倍,即便是与今年3月才面世的顶尖芯片B200相比
2024-06-26 15:37:00
ChatGPT掀AI热潮 这些芯片厂商将“狂飙”
...芯片的需求将暴增,给低迷的半导体行业带来一股暖流,英伟达、三星电子、SK海力士等都将受益。但是英伟达服务器用AI芯片方案存在发热和功耗过大的问题,谷歌、亚马逊AWS、三星电子
2023-02-14 14:00:00
6月26日消息,英伟达最近成为华尔街的焦点,自2022年底以来,其市值增长了八倍,本月市值更是飙升至超过3万亿美元。与此同时,一家由哈佛大学辍学生创立的初创公司Etched正在崭
2024-06-27 09:15:00
收入占比40%、电话会议点名16次,英伟达:推理端的需求被低估了
昨天凌晨,英伟达发布了2024财年第四季度财报,业绩再次超出预期。但比起亮眼的业绩,更让人印象深刻的是,英伟达在财报电话会议的一个观点:推理端的爆发,可能很多人还是低估了。据英伟
2024-03-02 13:38:00
...预计Meta可于年内完成该芯片在自有数据中心的部署,与英伟达GPU协同提供算力。该芯片是Meta去年宣布的内部芯片生产线的第二代产品,有助于减少Meta对占据市场主导地位的英
2024-02-03 21:39:00
英伟达推出史上最强AI芯片H200:推理性能提升90%,无缘中国市场
...狐科技作者 | 梁昌均在全球算力荒的情况下,AI芯片巨头英伟达加速算力竞赛。当地时间11月13日,英伟达宣布推出新一代人工智能芯片H200,称其是目前世界“最强”的AI芯片。
2023-11-14 14:05:00
英伟达没有慌,黄仁勋再谈DeepSeek:“推理”的计算需求可能增加上百万倍
2月27日凌晨,AI芯片霸主英伟达(NVDA.O)交出了新一季度的成绩单。图源:NVIDIA英伟达微信公众号2025财年第四季度(截至2025年1月26日)
2025-02-27 11:55:00
英特尔推出新款AI芯片:推理性能比英伟达H100快50%
...750亿参数GPT-3模型的训练时间。英特尔表示,Gaudi 3能够比英伟达上一代H100处理器训练特定大型语言模型的速度快40%
2024-04-10 10:52:00
更多关于科技的资讯:
记者走基层|智能安全帽,让矿工有了AI“卫士”
11月5日,中煤张家口煤矿机械有限责任公司所属恒洋电器有限公司工作人员介绍智能安全帽产品。河北日报记者 魏 雨摄“嘀嘀
2025-11-13 08:03:00
“长与短”周期变革,“快与慢”时效重构,“热与冷”业态碰撞—— “双11”三重奏,解读消费新变局□南京日报/紫金山新闻记者黄琳燕11月12日中午
2025-11-13 08:05:00
南报网讯(记者周容璇)日前,在南京医药中央物流中心,一辆白色无人车平稳地穿梭于主仓库与宝湾库区之间,仅用15分钟便完成了一次驳货作业
2025-11-13 08:05:00
向“质”攀升,南京机器人解锁“智造”新图景
全链条持续发力,以硬核技术竞逐市场向“质”攀升,南京机器人解锁“智造”新图景□南京日报/紫金山新闻记者徐宁 实习生黄倩机器人是智能制造的核心组成部分
2025-11-13 08:05:00
江苏南京:“爆单堵件”难寻踪迹,科技赋能让“双11”物流运输“从从容容”
“爆单堵件”难寻踪迹,科技赋能让“双11”物流运输“从从容容” 直播间“秒光” 无人机“闪送”□南京日报/紫金山新闻记者周容璇“3
2025-11-13 08:06:00
逐浪氢能“新蓝海”,南京加速能级跃升
实现全产业链布局,链上企业持续“加码” 逐浪氢能“新蓝海”,南京加速能级跃升□南京日报/紫金山新闻记者徐宁通讯员陈伟伟郑瑞陶炎李雪莹蹲点主题
2025-11-13 08:06:00
2025 脉脉职场新人报告:超50%职场新人想跳槽,校招生最想去字节跳动
脉脉人才智库近日发布《以能为本——互联网职场新人流动趋势 2025》报告,将校招和工作经验在3年内的社招人才界定为“职场新人”
2025-11-13 08:57:00
江苏南京:多点突破屡刷纪录 科创助推产业升级
黄维院士引领南工大柔性电子全国重点实验室闯出新天地 多点突破屡刷纪录 科创助推产业升级□南京日报/紫金山新闻记者谈洁姜静实习生钱逸霖在柔性电子领域
2025-11-13 09:43:00
海尔三筒洗衣机:中国第一,海外陆续上市
11月7日,一场聚焦中国三筒洗衣机的发布活动在越南胡志明市西贡河畔举行。活动以户外用户交互嘉年华形式打造沉浸式体验,2000余名消费者
2025-11-13 10:34:00
“双11”厦门网络零售额全省第一总额397.2亿元 760家企业、1062家店铺销售额超100万元东南网11月13日讯 (海峡导报记者 孙春燕)又一年“双11”即将落幕
2025-11-13 10:48:00
辛选双十一数据出炉!销量超3000万单,总人气突破5亿
鲁网11月13日讯历时超一个月的“双 11”大促正式落下帷幕。作为快手头部直播电商企业,辛选集团在新任董事长初瑞雪的带领下
2025-11-13 11:10:00
打破学科壁垒,贯通产学研链条:宁诺以“”无边界理念回应智能时代命题
10月31日至11月2日,机器智能与自然启发计算国际会议(MIND 2025)在厦门成功举办。本次会议由多所国内外知名高校及科研机构联合主办
2025-11-13 12:05:00
长春万达滑雪场启动造雪 12.25解锁四季滑雪自由
不用等寒冬、不用等降雪,长春净月高新区万达茂里藏着一座“四季不打烊的滑雪天堂”!吉林省首家室内滑雪场长春万达滑雪场已正式启动造雪模式
2025-11-13 14:05:00
利和味道“双塔”齐聚FHC,重塑中国西式食品市场格局
2025年11月12日,第28届FHC上海环球食品展—— 一场关乎中国西式食品未来的布局正悄然展开。国内食品行业的重要参与者利和味道
2025-11-13 14:09:00
欢喜传媒引入新投资人及战略合作伙伴 共筑“AI+影视”新生态
近日,欢喜传媒集团有限公司(以下简称“欢喜传媒”)宣布引入新投资人C River Co, 发行约7.3亿股(19.9%)的新股及约7
2025-11-13 14:09:00