LFM2-8B-A1B - Liquid AI 大型语言模型

LFM2-8B-A1B - Liquid AI 大型语言模型模型概述LFM2-8B-A1B 是 Liquid AI 公司于 2025 年 10月发布的大型语言模型,拥有 8.3B total (1.5B active per token, MoE) 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务。 该模型支持商业使用,为企业部署提供了法律保障。 LFM2-8B-A1B 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 2.4K,获得了 152 个点赞,显示出强大的社区影响力和用户认可度。 在性能方面,支持 32K tokens 的超长上下文窗口。 LFM2-8B-A1B 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是在需要高质量语...

阅读全文

IBM Granite 4.0 H-Small - IBM 大型语言模型

IBM Granite 4.0 H-Small - IBM 大型语言模型模型概述IBM Granite 4.0 H-Small 是 IBM 公司于 2025 年 10月发布的大型语言模型,拥有 32.2B (MoE Hybrid) 参数规模。该模型经过指令微调,专门针对对话和任务执行场景进行了优化。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务,在代码生成和理解方面表现出色。 该模型采用 Apache 2.0 开源许可证,这是一个非常商业友好的许可协议,允许企业在各种场景下自由使用、修改和分发,无需担心版权限制。 IBM Granite 4.0 H-Small 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 22.1K,获得了 241 个点赞,显示出强大的社区影响力和用户认可度。 核心特性 32.2B (MoE Hybrid) 参数规模:采用大...

阅读全文

Ling-1T - inclusionAI 大型语言模型

Ling-1T - inclusionAI 大型语言模型模型概述Ling-1T 是 inclusionAI 公司于 2025 年 10月发布的大型语言模型,拥有 1T total (~50B active per token, MoE 1/32 activation ratio) 参数规模。 具备强大的逻辑推理和数学推理能力。 采用 MIT 开源许可证,允许商业使用和二次开发,为企业提供了极大的灵活性。 Ling-1T 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 715,获得了 197 个点赞,显示出强大的社区影响力和用户认可度。 在性能方面,支持 128K tokens 的超长上下文窗口,State-of-the-art on complex reasoning benchmarks。 核心特性 1T total (~50B active p...

阅读全文

Qwen3-VL 30B-A3B Instruct - 阿里巴巴 大型语言模型

Qwen3-VL 30B-A3B Instruct - 阿里巴巴 大型语言模型模型概述Qwen3-VL 30B-A3B Instruct 是 阿里巴巴 公司于 2025 年 9月发布的大型语言模型,拥有 30B active (A3B MoE) 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务,具备强大的逻辑推理和数学推理能力。 该模型采用 Apache 2.0 开源许可证,这是一个非常商业友好的许可协议,允许企业在各种场景下自由使用、修改和分发,无需担心版权限制。 Qwen3-VL 30B-A3B Instruct 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 412.4K,获得了 208 个点赞,显示出强大的社区影响力和用户认可度。 核心特性 30B active (A3B MoE) 参数规模:采用大规模参数设计,在性能和效率之间...

阅读全文

Qwen3-VL 30B-A3B Thinking - 阿里巴巴 大型语言模型

Qwen3-VL 30B-A3B Thinking - 阿里巴巴 大型语言模型模型概述Qwen3-VL 30B-A3B Thinking 是 阿里巴巴 公司于 2025 年 9月发布的大型语言模型,拥有 30B active (A3B MoE) 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务,具备强大的逻辑推理和数学推理能力。 该模型采用 Apache 2.0 开源许可证,这是一个非常商业友好的许可协议,允许企业在各种场景下自由使用、修改和分发,无需担心版权限制。 Qwen3-VL 30B-A3B Thinking 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 7.9K,获得了 103 个点赞,显示出强大的社区影响力和用户认可度。 核心特性 30B active (A3B MoE) 参数规模:采用大规模参数设计,在性能和效率之间取得...

阅读全文

DeepSeek-V3.2-Exp - DeepSeek 大型语言模型

DeepSeek-V3.2-Exp - DeepSeek 大型语言模型模型概述DeepSeek-V3.2-Exp 是 DeepSeek 公司于 2025 年 9月发布的大型语言模型,拥有 685B (MoE with DeepSeek Sparse Attention) 参数规模。 在代码生成和理解方面表现出色。 采用 MIT 开源许可证,允许商业使用和二次开发,为企业提供了极大的灵活性。 DeepSeek-V3.2-Exp 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 42.9K,获得了 607 个点赞,显示出强大的社区影响力和用户认可度。 DeepSeek-V3.2-Exp 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是在需要高质量语言理解和生成...

阅读全文

GLM-4.6 - 智谱AI 大型语言模型

GLM-4.6 - 智谱AI 大型语言模型模型概述GLM-4.6 是 智谱AI 公司于 2025 年 9月发布的大型语言模型,拥有 356.8B total (MoE) 参数规模。 在代码生成和理解方面表现出色,具备强大的逻辑推理和数学推理能力。 采用 MIT 开源许可证,允许商业使用和二次开发,为企业提供了极大的灵活性。 GLM-4.6 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 24.6K,获得了 672 个点赞,显示出强大的社区影响力和用户认可度。 在性能方面,Competitive with DeepSeek-V3.1-Terminus and Claude Sonnet 4。 GLM-4.6 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是...

阅读全文

Tencent HunyuanImage 3.0 - 腾讯 大型语言模型

Tencent HunyuanImage 3.0 - 腾讯 大型语言模型模型概述Tencent HunyuanImage 3.0 是 腾讯 公司于 2025 年 9月发布的大型语言模型,拥有 83B (MoE, 64 experts, 13B active per token) 参数规模。 具备强大的逻辑推理和数学推理能力。 该模型支持商业使用,为企业部署提供了法律保障。 Tencent HunyuanImage 3.0 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 2.6K,获得了 853 个点赞,显示出强大的社区影响力和用户认可度。 在性能方面,Comparable to or surpassing leading closed-source models。 核心特性 83B (MoE, 64 experts, 13B active per token...

阅读全文

DeepSeek-V3.1-Terminus - DeepSeek 大型语言模型

DeepSeek-V3.1-Terminus - DeepSeek 大型语言模型模型概述DeepSeek-V3.1-Terminus 是 DeepSeek 公司于 2025 年 9月发布的大型语言模型,拥有 685B total (MoE) 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务,在代码生成和理解方面表现出色,具备强大的逻辑推理和数学推理能力。 采用 MIT 开源许可证,允许商业使用和二次开发,为企业提供了极大的灵活性。 DeepSeek-V3.1-Terminus 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 20.7K,获得了 314 个点赞,显示出强大的社区影响力和用户认可度。 DeepSeek-V3.1-Terminus 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表...

阅读全文

Qwen3-Omni 30B-A3B Instruct - 阿里巴巴 大型语言模型

Qwen3-Omni 30B-A3B Instruct - 阿里巴巴 大型语言模型模型概述Qwen3-Omni 30B-A3B Instruct 是 阿里巴巴 公司于 2025 年 9月发布的大型语言模型,拥有 30B active (A3B MoE) 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务,在代码生成和理解方面表现出色。 该模型支持商业使用,为企业部署提供了法律保障。 Qwen3-Omni 30B-A3B Instruct 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 293.6K,获得了 619 个点赞,显示出强大的社区影响力和用户认可度。 Qwen3-Omni 30B-A3B Instruct 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能...

阅读全文

S1-Base-671B - ScienceOne AI 大型语言模型

S1-Base-671B - ScienceOne AI 大型语言模型模型概述S1-Base-671B 是 ScienceOne AI 公司于 2025 年 9月发布的大型语言模型,拥有 671B (Heterogeneous Mixture-of-Experts) 参数规模。 具备强大的逻辑推理和数学推理能力。 该模型采用 Apache 2.0 开源许可证,这是一个非常商业友好的许可协议,允许企业在各种场景下自由使用、修改和分发,无需担心版权限制。 S1-Base-671B 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 N/A,获得了 N/A 个点赞,显示出强大的社区影响力和用户认可度。 S1-Base-671B 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工...

阅读全文

Microsoft MAI-1-Preview - 微软 大型语言模型

Microsoft MAI-1-Preview - 微软 大型语言模型模型概述Microsoft MAI-1-Preview 是 微软 公司于 2025 年 8月发布的大型语言模型,拥有 undisclosed (Mixture-of-Experts) 参数规模。作为基座模型,它为下游任务提供了强大的基础能力。 该模型支持商业使用,为企业部署提供了法律保障。 Microsoft MAI-1-Preview 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是在需要高质量语言理解和生成的应用场景中,如智能客服、内容创作、代码辅助等领域,都展现出了巨大的应用潜力。 核心特性 undisclosed (Mixture-of-Experts) 参数规模:采用大规模参数设计,在性能和效率之间取...

阅读全文

Intern-S1 - InternLM (Shanghai AI Lab) 大型语言模型

Intern-S1 - InternLM (Shanghai AI Lab) 大型语言模型模型概述Intern-S1 是 InternLM (Shanghai AI Lab) 公司于 2025 年 8月发布的大型语言模型,拥有 235B total (28B activated, MoE) + 6B vision encoder 参数规模。 在代码生成和理解方面表现出色,具备强大的逻辑推理和数学推理能力。 该模型支持商业使用,为企业部署提供了法律保障。 Intern-S1 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 N/A,获得了 N/A 个点赞,显示出强大的社区影响力和用户认可度。 Intern-S1 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带...

阅读全文

DeepSeek-R1-0528 - DeepSeek 大型语言模型

DeepSeek-R1-0528 - DeepSeek 大型语言模型模型概述DeepSeek-R1-0528 是 DeepSeek 公司于 2025 年 5月发布的大型语言模型,拥有 671B total (MoE) 参数规模。 具备强大的逻辑推理和数学推理能力。 采用 MIT 开源许可证,允许商业使用和二次开发,为企业提供了极大的灵活性。 DeepSeek-R1-0528 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 599.4K,获得了 2,377 个点赞,显示出强大的社区影响力和用户认可度。 DeepSeek-R1-0528 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是在需要高质量语言理解和生成的应用场景中,如智能客服、内容创作、代码辅助等领...

阅读全文

DeepSeek-Prover-V2-671B - DeepSeek 大型语言模型

DeepSeek-Prover-V2-671B - DeepSeek 大型语言模型模型概述DeepSeek-Prover-V2-671B 是 DeepSeek 公司于 2025 年 4月发布的大型语言模型,拥有 671B (MoE) 参数规模。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务,具备强大的逻辑推理和数学推理能力。 采用 MIT 开源许可证,允许商业使用和二次开发,为企业提供了极大的灵活性。 DeepSeek-Prover-V2-671B 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 1.6K,获得了 811 个点赞,显示出强大的社区影响力和用户认可度。 DeepSeek-Prover-V2-671B 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带...

阅读全文

Llama 4 Scout - Meta 大型语言模型

Llama 4 Scout - Meta 大型语言模型模型概述Llama 4 Scout 是 Meta 公司于 2025 年 4月发布的大型语言模型,拥有 17B active (16 experts, MoE) 参数规模。作为基座模型,它为下游任务提供了强大的基础能力。 使用 LLaMA 系列许可证,支持商业使用,但需遵守一定的使用条款和限制。 Llama 4 Scout 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是在需要高质量语言理解和生成的应用场景中,如智能客服、内容创作、代码辅助等领域,都展现出了巨大的应用潜力。 核心特性 17B active (16 experts, MoE) 参数规模:采用大规模参数设计,在性能和效率之间取得最佳平衡 First open:wei...

阅读全文

DeepSeek-R1 - DeepSeek 大型语言模型

DeepSeek-R1 - DeepSeek 大型语言模型模型概述DeepSeek-R1 是 DeepSeek 公司于 2025 年 1月发布的大型语言模型,拥有 671B total (MoE) 参数规模。 具备强大的逻辑推理和数学推理能力。 采用 MIT 开源许可证,允许商业使用和二次开发,为企业提供了极大的灵活性。 DeepSeek-R1 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 548.2K,获得了 12,773 个点赞,显示出强大的社区影响力和用户认可度。 DeepSeek-R1 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是在需要高质量语言理解和生成的应用场景中,如智能客服、内容创作、代码辅助等领域,都展现出了巨大的应用潜力。 核心特...

阅读全文

DeepSeek-V3 - DeepSeek 大型语言模型

DeepSeek-V3 - DeepSeek 大型语言模型模型概述DeepSeek-V3 是 DeepSeek 公司于 2024 年 12月发布的大型语言模型,拥有 671B total (MoE) 参数规模。 具备强大的逻辑推理和数学推理能力。 采用 MIT 开源许可证,允许商业使用和二次开发,为企业提供了极大的灵活性。 DeepSeek-V3 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 247.1K,获得了 3,977 个点赞,显示出强大的社区影响力和用户认可度。 在性能方面,GPT-4 class capabilities。 DeepSeek-V3 采用了先进的 Transformer 架构和优化的训练方法,在自然语言理解、生成和推理等任务上表现出色。该模型的发布为人工智能领域带来了新的可能性,特别是在需要高质量语言理解和生成的应用场景中,如智能客...

阅读全文

Mixtral 8x7B Instruct v0.1 - Mistral AI 大型语言模型

Mixtral 8x7B Instruct v0.1 - Mistral AI 大型语言模型模型概述Mixtral 8x7B Instruct v0.1 是 Mistral AI 公司于 2023 年 12月发布的大型语言模型,拥有 46.7B total (8x7B MoE) 参数规模。该模型经过指令微调,专门针对对话和任务执行场景进行了优化。 该模型支持多种语言,能够处理包括中文、英文在内的多语言任务。 该模型采用 Apache 2.0 开源许可证,这是一个非常商业友好的许可协议,允许企业在各种场景下自由使用、修改和分发,无需担心版权限制。 Mixtral 8x7B Instruct v0.1 在开源社区获得了广泛认可,Hugging Face 平台上的下载量已达到 288.3K,获得了 4,569 个点赞,显示出强大的社区影响力和用户认可度。 核心特性 46.7B total ...

阅读全文

© 2025 Generative AI Discovery All Rights Reserved.
Theme by hiero