• 我的订阅
  • 科技

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

类别:科技 发布时间:2024-09-18 09:49:00 来源:IT之家

OpenAI 博士级别的智能,真的实现了!一位 UCI 物理学博士实测 o1,发现自己用时 1 年完成的博士论文代码,竟被 AI 在 1 个小时之内实现了。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

o1 模型已经强到,能够直出博士论文代码了!来自加州大学欧文分校(UCI)的物理学博士 Kyle Kabasares,实测 o1 preview+mini 后发现:

自己肝了大约 1 年的博士代码,o1 竟在 1 小时内完成了。

他称,在大约 6 次提示后,o1 便创建了一个运行版本的 Python 代码,描述出研究论文「方法」部分的内容。

虽然 AI 生成的代码框架,模拟了 Kabasares 实际代码功能,但它使用的是「合成数据」,并非真实的天文数据。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

论文地址: https://iopscience.iop.org/article / 10.3847/1538-4357 / ac7a38 / meta

不过,o1 能够在这么短时间输出复杂代码,足以震撼。视频右下角中,Kabasares 连连喊出「oh my god」,各种难以形容的动作表情,被震惊到怀疑人生。

YouTube 视频一出,便在全网掀起热议,网友们纷纷表示太疯狂了。

好巧不巧的是,o1 在最新门萨智商测试中,IQ 水平竟超过了 120 分。35 个智商题,答对了 25 道,把其他模型甩出好几条街。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

然而,这仅仅是 o1 模型的 preview 版本。OpenAI 研究人员 David Dohan 曾发文暗示,一个月后,o1 模型还将有全新的升级版本。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

届时,还不知 o1 性能,将有多么逆天?!

物理学博士论文,AI 1 小时直出 200 行代码

2022 年,物理学博士 Kabasares 以第一作者身份,在「天文物理期刊」发表了这篇关于,通过对天文数据建模来测量黑洞质量的论文。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

当然,这篇研究不仅仅是写代码,但实现这段代码,是 Kabasares 博士第一年的关键突破。

可以说,在他博士研究的阶段的第一年(2018 年 7 月-2019 年 4 月),花费了大量时间,才让这段代码初版正确运行起来。

这也是,为什么 o1 能在 1 小时内,给出一个可运行的 Python 代码,让 Kabasares 印象深刻。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

视频中,看到 o1 输出的代码后,Kabasares 缓了好大一阵儿,才开始接下来的解释。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

他向 ChatGPT o1 提供了论文中,「方法」部分的内容(即第 4 节),并提示阅读我的论文,根据所给信息,写出一段 Python 运行代码。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

他多次强调,自己没有向 o1 展示自己代码。在于 ChatGPT 对话页面中,Kabasares 向大家展示,并细数了下 o1 是在 6 次提示下,完成 200 行代码。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

不过,他也提出警告,实际上还需要我们自己去做一些额外的工作。就像论文中这个曲线图,还得需要在另一个软件,比如银河图像软件中完成。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

当网友询问到,有没有可能 o1 就着你自己的代码,完成的训练?

Kabasares 认为,o1 输出的 200 行代码,与自己 1100 行代码有着很大的不同,这是论文代码「最简版本」。

深夜测试,o1 挑战大学、博士物理题

为此,Kabasares 又发了第二弹视频,向所有人解释 o1 可能真的没有接受过数据训练。

值得一提的是,他从办公室拿到的私密文件,是由教授亲自设计的天体物理学问题。这些题目,都是 Kabasares 在博士期间完成的,并没有发布到互联网上。

他专门为 o1 出了一个测试集,一共有 4 道题目。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

而在没有训练数据的情况下,o1 输出的结果不用说。甚至,有的题它仅在 16 秒内,完成了解答。

还记得,OpenAI CTO Mira Murati 在接受采访中表示,GPT-4 之后的新模型将达到博士级别的智能。

o1 现在的表现,已经是关键的一瞥。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

代码编程赛,大师级别

作为 OpenAI 的研究主管兼现任的 IOI 美国队教练,Mark Chen 分享了 o1 模型在 Codeforces 比赛上的最新进展。

在 Codeforces 昨天的实时比赛中,一位名为 AryanDLuffy 的选手使用了 o1-mini 模型参加比赛,结果相当惊艳。

用 Mark Chen 的话来说,达到了「接近大师级别的表现」。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

AryanDLuffy 发帖表示,自己没有进行任何提示工程,仅仅是给出问题陈述,并告诉模型用 C++ 解题。

7 道题目中,o1-mini 仅在 B2、D 和 E2 遇到了困难,其中 D 和 E2 是不少排名前 50 的选手也没能得分的,也是提交人数最少的两道题目。

最终,o1-mini 帮助 AryanDLuffy 获得了 3922 分的总成绩,在超过 16 万参赛者中排名 277,也就是排名在前 0.17%。

这远远超过了 OpenAI 自己做的基准测试结果。o1 模型在他们的模拟 Codeforces 比赛中还只是超过了 89% 的人类选手。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

277 的排名相比 AryanDLuffy 本人之前的纪录提高了 158 位,达到了 4 年来最大的进步幅度。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

对此,Mark Chen 和很多网友的想法是,IMO 和 Codeforces 的竞赛题也许可以作为新型的 LLM 基准测试。然而,Codeforces 的主办方担心的是另一件事。

竞赛创始人 Mike Mirzayanov 为此特地制定了一条新规:禁止使用 GPT、Gemini、Gemma、Llama 和 Claude 等各种模型来解决 Codeforces 竞赛中的编程问题。

但是这条新规并不是要求参赛者完全摒弃 AI,他们依旧可以让模型辅助翻译问题陈述,或者向 Copilot 寻求语法帮助和次要的编码建议。

简而言之,竞赛问题的核心逻辑、算法,以及 bug 的诊断调试,都必须由人类选手独立完成,CF 也会进行作弊检测。在非竞争性问题中,AI 工具的使用则完全不受限制。

但也有用户指出,作弊检测实质上很难执行,参赛者简单修改一下 AI 生成的代码就可以「逃过法眼」。竞争性编程竞赛的未来,很大程度上决定于选手们自己能否守信。

CF 也表示,会持续关注 AI 技术的进展,并根据需要及时调整规则。

在博文中,Mirzayanov 将神经网络的进展称为「技术奇迹」,因为不久前这些模型还很难完成竞赛中最简单的任务,但现在却达到了不容忽视的高度。

他表示,「我们有理由相信,这种进步会持续下去,AI 可能会在编程竞赛领域继续取得新的突破。」

陶哲轩实测后续

除了 Codeforces,陶哲轩大神也表示,由于大家对他之前测试的兴趣,因此继续放出了一些其他的 o1 preview 实验结果。

第一个实验,是找术语。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

2010 年,我正在寻找「乘法积分」的正确术语,但当时没有用搜索引擎找到。于是我转而在 MathOverflow 上提出了问题,并从人类专家那里得到了满意的答案:

14 年后的今天,陶哲轩再次向 o1 模型提出了相同的问题,问题表述都和 MathOverflow 上的帖子几乎一模一样。

相比人类专家,o1 给出的答案更加全面而且完美。不仅包含了 5 个可能的术语,还附上了相应的数学表示、应用领域和参考文献。

陶哲轩表示,虽然这篇 MathOverflow 上的帖子可能已经包含在 o1 的训练数据中了,但依旧能展现模型在语义搜索方面的强大功能,而且搜集、总结出的答案的质量可以与 MathOverflow 这类专业的问答网站相当。

另一个实验则更具创造性,与陶哲轩本人的研究直接相关。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

作为另一个小实验,我给了 o1 我最近的博客文章的前半部分,其中总结了之前我自己能够解决的鄂尔多斯问题的进展。

要将之前的部分进展转换为全面的解决方案,仍缺失一些要素,我要求 o1 模型找到这些转换要素,但结果有点令人失望。

本质上,模型提出的策略与博客中重述的最新研究是相同的,并针对该策略没有提供任何创造性的改变。

总的来说,我觉得虽然 LLM 工具有一定的能力,可以随机生成创造性策略,但这方面的 LLM 工具仍然相当薄弱。

o1 模型发布不到一周,我们就已经见证了这么多惊人的用例,AI 技术界对 o1 背后的机制和原理也是众说纷纭。

前谷歌搜索工程师、Menlo Ventures 风投家 Deedy Das 曾大胆猜测,其主要原理来自 DeepMind 一篇今年 8 月发表的论文。

论文地址: https://arxiv.org/abs / 2408.03314

论文提出,让 LLM 进行更多的「测试时计算」(test-time computation),对于构建能在开放语境下操作、能实现自我提升的 agent,是关键的一步。

而这篇论文就重点研究了扩展「推理期计算」(inference-time computation)这个问题。

研究团队分析了扩展测试时计算的两种主要机制:(1)针对密集的、基于过程的验证器奖励模型进行搜索;(2)根据测试时得到的提示词,自适应更新模型对响应的分布。

结果显示,在这两种情况下,对测试时计算的不同扩展方法的有效性,很大程度上取决于提示词的难度。

基于此,研究团队提出了一种「计算最优」扩展策略 —— 通过为每个提示词自适应地分配测试时计算,使测试时计算的扩展的效率提高 4 倍以上。

另外,在 FLOPs 一致的评估中,对于那些较小的基础模型已取得一定程度非平凡成功率的问题,测试时计算可以使其超越规模大 14 倍的模型。

此外,HuggingFace 技术主管 Philipp Schmid 也开列了一份论文清单,包含了 o1 模型可能的工作原理,主要关于通过训练 / RLHF 而非提示工程,提升 LLM 在复杂任务上的推理性能。

这 5 篇论文都发表于今年或去年,可以说是代表了细分方向的前沿进展。

第一篇是斯坦福和 Notbad 在今年 3 月提出的 Quiet-STaR(Self-Taught Reasoner)。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

论文地址: https://arxiv.org/abs / 2403.09629

论文的想法来源于这样一个直觉:在写作和说话时,人们有时会停下来思考,但思考和推理的内容不会显式地表达出来,而是隐含在书面文本中。

因此,理想情况下,语言模型可以学习推断文本中未阐明的基本原理。

Quiet-STaR 是对 2022 年发表的 STaR 的推广,让模型为每个 token 生成基本原理来解释未来的文本,从而提升预测能力。

第二篇同样是斯坦福学者和 MultiOn 在今年 8 月合作发表的 AgentQ 框架。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

论文地址: https://arxiv.org/abs / 2408.07199

他们将蒙特卡罗树搜索(MCTS)与自我批评机制相结合,并使用直接偏好优化(DPO)算法的 off-policy 变体对 agent 的交互进行迭代微调。

这种方法允许 LLM agent 同时从成功和不成功的轨迹中进行有效学习,从而提高在复杂的多步骤推理任务中的泛化能力。

第三篇则针对数学推理,以期提升模型的问题理解能力和「反思」能力。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

论文地址: https://arxiv.org/abs / 2406.12050

具体来说,论文提出了一种新颖的「反思增强」方法,将问题的反思嵌入到每个训练实例,训练模型考虑其他可能的视角,并进行抽象和类比,通过反思性推理促进更全面的理解。

V-STaR 这篇文章同样是对 STaR 框架的推广,发表于今年 2 月。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

论文地址: https://arxiv.org/abs / 2402.06457

论文提出,原有的 STaR 方法在迭代过程中丢弃了大量不正确的解决方案,可能忽略了其中有价值的信息。

V-STaR 正是要弥补这个缺陷,它同时利用了自我改进过程中生成的正确和错误的解决方案,用 DPO 训练出一个验证模型,以判断生成的解决方案的正确性。该验证器在推理时使用,从候选解决方案中进行选择。

实验发现,运行 V-STaR 进行多次迭代,可以逐渐训练出性能更好的推理模型和验证模型。

Let's Verify Step by Step 这篇论文,便是由 AI 大牛 Ilya 带队完成。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

论文地址: https://arxiv.org/abs / 2305.20050

论文中,主要探讨了大模型在复杂推理中,如何优化训练策略的问题,尤其是,如何利用 CoT 进行思考。

他们提出了过程监督方法(process supervision),由此训练的一种全新模型,在解决数学问题上取得了突破。

这一策略的强大之处在于,比起结果监督,在推理过程中逐步奖励,进而让模型性能显著提升。

除了推特帖中一开始涉及的 5 篇,Schimid 还在 HuggingFace 上单开了一个网页,持续搜罗相关论文,目前已经涵盖了 7 篇。

https://huggingface.co/collections/philschmid/llm-reasoning-papers-66e6abbdf5579b829f214de8o1 能否实现自我提升

Jim Fan 在一篇分析帖中指出,o1 模型给我们带来的关键见解是这两条曲线的齐头并进 —— 训练时的 scaling law 和推理时的 scaling law,而后者才是真正战胜收益递减的关键因素。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

此外,他还 cue 到了两篇论文,能够解决我们关于「o1 自我提升能力」的疑问。一篇是 Meta 和 NYU 在今年 1 月提出的「自我奖励的语言模型」。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

论文地址: https://arxiv.org/abs / 2401.10020

这篇文章基于一个非常简单的想法:对同一个 LLM 进行提示,引导它生成响应并自我奖励,进行迭代自举。

论文称,奖励建模能力不再属于一个固定、独立的模型,而是可以跟随主模型的步伐提升。但有趣的是,最多 3 次迭代之后,依旧会出现模型饱和。

对此,Jim Fan 的想法是,作为评论者(critic)的奖励模型,提升速度小于作为行动者(actor)的生成模型,因此尽管二者都在提升,最多 3 轮迭代后,后者就会追上前者,达到饱和。

另一篇文章是 DeepMind 去年 8 月就发表的 ReST(Reinforced Self-Training),其实验结果也很类似:在达到收益递减前,最多进行 3 轮迭代。

OpenAI 超强 o1 智商超 120 遥遥领先于其他模型:1 小时写出 NASA 博士 1 年代码,最新编程赛超越 99.8% 选手

论文地址: https://arxiv.org/abs / 2308.08998

这两篇论文似乎证明了,评论家和行动者之间不存在可持续的能力差距,除非引入外部驱动信号,比如符号定理验证、单元测试套件或编译器反馈。

但这些都是特定领域的高度专业化的内容,要想实现我们理想中的 LLM 的通用自我提升,还需要发掘和探索更多的研究想法。

参考资料:

https://www.reddit.com/r/singularity/comments/1fhi59o/chatgpt_o1_preview_mini_wrote_my_phd_code_in_1/ https://x.com/markchen90/status/1835143660746273185 https://mathstodon.xyz/@tao/113142753409304792

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-09-18 11:45:08

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

...成果网报道的《你比人工智能聪明吗?计算机语言模型在智商测试中胜过人类》。文章摘要如下:美国加利福尼亚大学洛杉矶分校的研究人员发现,在衡量智力的一系列推理测试中,自回归语言模型
2022-12-30 15:15:00
郭麒麟情商下线了,一句玩笑话尴尬了三个人
...次表演都会让人大吃一惊。这些年来,郭麒麟也是靠着高智商,才能在《最强大脑》这个节目中闯过不少关卡。虽然只是一个简单的“观察室”,但是郭麒麟的智慧,却是可见一斑。也正因如此,郭
2023-03-15 21:27:00
李彦宏直言开源模型是智商税!阿里云CTO:开源大大加速应用落地
...度创始人李彦宏直言不讳地表示,开源模型相当于一种“智商税”。他坚持认为闭源模型将保持领先,并强调即使是规模较小的闭源模型,其效果也优于同等规模的开源模型。李彦宏认为,闭源模型
2024-07-07 09:37:00
人工智能的偏见——基于全球大语言模型情商与智商偏见测试
...全球)实验室发布了全球大语言模型(LLM)情商(EQ)与智商(IQ)偏见测试。该测试旨在评估和比较国内外大语言模型分别在“男性”和“女性”视角下的智商和情商水平。(全球大语言
2024-01-04 13:54:00
本文转自:兰州晚报“walker,明天我要出差,可以帮我叠一下你手里的这件衣服吗?”“当然可以。”话音刚落,机器人就将一件黑色衣服平铺到桌面上,翻动双手顺利完成叠衣服的一系列动作
2024-04-02 04:07:00
郭麒麟情商下线,一句玩笑话尴尬了三个人
...能给观众很多惊喜。这么多年以来,郭麒麟凭借自己的高智商在《最强大脑》中完成了很多挑战。 虽说只是观察室的简易版项目,但这也足以说明郭麒麟的智商。正是因为如此,观众对郭麒麟更
2023-03-14 12:09:00
搜狐汽车全球快讯丨百度Apollo官宣文心大模型首批智舱应用探索伙伴
...汽车大模型在汽车行业也正如火如荼的落地,具备情感和智商的车型有望进入市场。8月2日,百度Apollo宣布长城汽车、亿咖通科技(排名不分先后)成为首批文心大模型智舱应用探索伙伴
2023-08-02 11:09:00
“GPT-5”发布时间曝光!GPT-3是幼儿,GPT-4像高中生,新一代大模型将达博士水平
...net,已经成为了第一个测试分数高于最聪明的人类博士的模型。图片来源:截图于Youtube近日,OpenAI CTO米拉·穆拉蒂在达特茅斯工程学院发表了关于AI在各行业中的变革潜力及其对工作的影响的重要言论
2024-06-25 09:21:00
李彦宏再谈开源:开源模型是智商税,永远应该选择闭源模型
...问题,表达了自己的看法。李彦宏认为,开源其实是一种智商税。“当你理性地去想,大模型能够带来什么价值,以什么样的成本带来价值的时候,就会发现,你永远应该选择闭源模型。今天无论是
2024-07-31 16:00:00
更多关于科技的资讯:
“我是一名肢残三级的残疾人,请问能享受哪些补贴?”输入文字,几秒钟过后,手机页面就出现了答案——杭州市各级政府的相关助残政策和补贴金额被清晰地列举出来
2025-12-06 10:21:00
河北日报讯(张晓超、李娜)11月19日,辛集市教育北路高架桥上空,一架搭载高清摄像头与专业传感器的无人机缓缓升空,按照预设航线开展桥梁日常检测
2025-12-05 14:56:00
烟台南山学院斩获省部级科技奖荣誉
近日,2025年度中国纺织工业联合会科学技术奖励大会在北京人民大会堂隆重召开。烟台南山学院“针织经编一体成型3D智能织造关键技术及应用”项目斩获“技术发明奖二等奖”
2025-12-05 15:00:00
盐城盐都:“芯”智散热赋能 科创驱动前行
江南时报讯 以科创破局散热赛道,以匠心赋能产业升级。乘着聚焦“3+3”产业体系、培育新兴产业的发展浪潮,盐城市盐都区已在第三代半导体多个细分领域形成显著集聚优势
2025-12-05 15:07:00
中新建电力集团发电产业:智慧电厂新蓝图
近日,中新建电力集团天河热电分公司与上海电气集团举行了一场关键的技术交流会。会议聚焦于天河热电的智慧化升级,上海电气团队在会上系统性地展示了其先进的智慧电厂整体架构规划
2025-12-05 15:09:00
日前,建行河北省分行2025年“人工智能+”劳动技能竞赛顺利结束。全省共有111支队伍选送90项作品参加初赛,经过严格的初审选拔
2025-12-05 15:09:00
全国首台套!助力煤矸石全量高值转化
12月1日,由中能建装配式建筑产业发展有限公司投资建设运营的山西大同千万吨级煤矸石综合利用新技术示范项目陶粒中试线成功建成投运
2025-12-05 15:10:00
如何“反内卷”?54.5%职场人将“优化薪酬激励机制”列为首选
什么是“好工作”?工作有哪些特质会让员工有“好”感受?日前,智联招聘通过问卷调研的方式,对平台用户展开调研,回收3525份有效样本
2025-12-05 15:26:00
国航举办“国航+”生态主题发布会
海外网北京12月5日电(记者严冰)12月5日,中国国际航空股份有限公司(以下简称“国航”)在北京举办“云端无界 凤启耀星河——‘国航+’生态主题发布会”
2025-12-05 15:33:00
乐购房山│实惠购—荟品仓城市奥莱北京首店盛大开业!
12月5日,国内仓储式品牌特卖开创者荟品仓,在房山区瑞来广场盛大开业,带来北京首家城市奥莱门店。近1万平方米超大空间、300+全球知名品牌及1-3折极致折扣
2025-12-05 15:55:00
易生支付“智慧分账”赋能安心鲜生 驱动社区零售全国布局
在社区零售数字化转型加速深化的背景下,易生支付与“社区新零售”新兴企业陕西安心鲜生正式达成合作。依托易生支付的深厚技术积淀与成熟系统能力
2025-12-05 16:09:00
ED用药怎么选?金钢鸟领衔西地那非口崩片品牌阵营,购买渠道全解析
第91届全国药交会上,金鸿药业金钢鸟枸橼酸西地那非口崩片的亮相,让“枸橼酸西地那非品牌选择”“哪里有售”等问题成为行业热议焦点
2025-12-05 16:09:00
苏州黄埭镇推动“产学研”深度融合
江南时报讯 日前,苏州冠鸿智能装备有限公司与中南大学计算机学院“跨界”合作,联合启动轮式双臂机器人研发项目,致力于推动创新成果向现实生产力加速转化
2025-12-05 16:13:00
近邻碰碰:以 “邻里经济”打造智慧社区消费新生态 —— 专访小门神传媒科技集团董事长付信中
鲁网12月4日讯“远亲不如近邻”,这句家喻户晓的俗语,如今被小门神传媒科技集团董事长付信中赋予了全新的商业内涵。由其集团研发推出的近邻碰碰 AI 智慧惠民设备
2025-12-05 16:47:00
今年双十一,A4纸大小的巨型吊牌成为女装电商的“标配”。这种硬材质、高存在感的“防白嫖神器”,在社交平台引发热议,同时也揭露了线上服装行业的信任危机
2025-12-05 17:00:00