🎉 Gate 广场 · 分享币圈搞笑段子,赢 $100 快乐基金!
币圈太刺激?那就来 Gate 广场一起笑一笑。
不管是爆仓名场面、FOMO 迷惑行为、错过涨幅的灵魂呐喊——
发帖分享你最搞笑的 Crypto 瞬间,我们请你赢“快乐基金”!
💰 奖励规则
精选 10 位最有梗的创作者,
每人可获得 $10 快乐基金(代币奖励)。
📝 参与方式
1⃣️ 关注 Gate广场_Official
2⃣️ 带上话题 #我的币圈搞笑瞬间 发帖
3⃣️ 内容不限:自嘲、名场面、梗图、迷惑操作都可以!
(图文/短视频/表情包都欢迎)
📌 注意事项
必须带 #我的币圈搞笑瞬间 标签,否则无法参与评选
重复、抄梗内容将被排除
内容需 30 字以上,并获得 至少 3 个互动
⏰ 活动截止时间:12 月 7 日 24:00(UTC+8)
来 Gate 广场,一起把亏过的、踏空的、笑喷的…全部变成 快乐基金!
Akash Network 推出 AkashML,首个基于去中心化 GPU 的全托管 AI 推理服务
简要
Akash Network 推出了 AkashML,提供兼容 OpenAI 的 API、全球低延迟访问,并在部署大语言模型(LLM)时可节省高达 85% 的成本。
Akash Network 作为云计算市场,推出了首个完全基于去中心化 GPU 的全面托管 AI 推理服务。该新服务消除了开发者此前在 Akash 上管理生产级推理时遇到的运营难题,让用户无需亲自管理基础设施,即可享受去中心化云计算的优势。
在发布时,AkashML 已支持包括 Llama 3.3-70B、DeepSeek V3 以及 Qwen3-30B-A3B 等模型的托管推理,可立即部署,并能在全球 65 个以上的数据中心进行扩展。该架构实现了全球范围的即时推理、可预测的按 token 支付定价,并提升了开发者生产力。
自 OpenAI 推动 AI 应用浪潮以来,Akash 一直支持早期 AI 开发者和初创企业。过去几年,Akash Core 团队与包括 brev.dev((被英伟达收购))、VeniceAI 和 Prime Intellect 等客户合作,推出了服务数万用户的产品。虽然这些早期用户技术实力较强,能自行管理基础设施,但反馈指出他们更倾向于无需处理底层系统的 API 访问方式。基于这些反馈,团队开发了面向特定用户的非公开版 AkashML,以及 AkashChat 和 AkashChat API,为 AkashML 的公开发布奠定了基础。
AkashML 可将 LLM 部署成本降低高达 85%
该新方案解决了开发者和企业在部署大语言模型时面临的多项关键挑战。传统云解决方案成本高昂,70B 型号的预留实例每百万 tokens 输入成本超 $0.13,输出成本超 $0.40,而 AkashML 通过市场竞争,将费用降低 70-85%。运维负担也是一大障碍,打包模型、配置 vLLM 或 TGI 服务器、管理分片及故障转移可能耗费数周工程时间;AkashML 通过兼容 OpenAI 的 API,使迁移过程无需更改代码、几分钟即可完成。
集中式平台还存在延迟问题,请求往往需跨越长距离。AkashML 会将流量路由至全球 80 多个最近的数据中心,实现小于 200 毫秒的响应时间,适用于实时应用。供应商锁定限制了对模型和数据的灵活性与控制;AkashML 仅使用开源模型如 Llama、DeepSeek 和 Qwen,用户可完全掌控模型版本、升级和治理。可扩展性难题通过自动扩展去中心化 GPU 资源得到缓解,保障 99% 正常运行时间,无容量限制,并避免价格突涨。
AkashML 旨在实现快速上手和即时回报。新用户可获得 $100 AI 代币积分,用于通过 Playground 或 API 体验所有支持的模型。所有模型共用单一 API 端点,并可集成到 LangChain、Haystack 或自定义 Agent。定价透明并按模型区分,避免意外支出。高影响力部署可通过 Akash Star 获得曝光,未来网络升级如 BME、虚拟机和机密计算将进一步降低成本。早期用户已报告成本降低三到五倍,全球延迟始终低于 200 毫秒,实现了成本下降、使用率提升和服务商参与度扩大的良性循环。
上手极为简单:用户只需两分钟即可在 playground.akashml.com 免费注册账号,浏览包括 Llama 3.3-70B、DeepSeek V3 及 Qwen3-30B-A3B 在内的模型库,并提前了解价格。可直接在平台上申请其他模型。用户可在 Playground 或通过 API 即时测试模型,通过仪表盘监控用量、延迟和支出,并通过区域绑定和自动扩展实现生产级部署。
集中式推理依然成本高昂、速度慢且限制多,而 AkashML 则通过 API 优先、去中心化的方式,以市场定价为开发者和企业提供对顶级开源模型的全面托管访问。希望将推理成本降低至 80% 的开发者和企业可立即开始使用该平台。