...些问题,来自艾伦人工智能研究院、 Contextual AI 等机构的研究者引入了 OLMoE ,这是一个完全开源的混合专家语言模型,在类似大小的模型中具有 SOTA 性能。
论文地址:https://arxiv.org/pdf/2409.02060
论文标题:OLMoE: Open Mix……更多
...,其模仿莎士比亚《哈姆雷特》的台词提出了一个对 AI 研究者和实践者来说至关重要的问题:To CoT or not to CoT?论文标题:To CoT or not to CoT? Chain-of-thought helps mainly on math and symbolic reasoning论文地址……更多