人工智能 摘要
标准的AI能耗辩论将服务器端LLM推理与服务器端谷歌查询进行比较。我认为这忽略了真实搜索会话期间移动设备上发生的大部分情况。我建立了一个完整的端到端移动搜索会话参数模型:4G/5G无线电、屏幕、CPU、GPU、内存和网络堆栈。
标准的AI能耗辩论将服务器端LLM推理与服务器端谷歌查询进行比较。我认为这忽略了真实搜索会话期间移动设备上发生的大部分情况。我建立了一个完整的端到端移动搜索会话参数模型:4G/5G无线电、屏幕、CPU、GPU、内存和网络堆栈。
人工智能 摘要
标准的AI能耗辩论将服务器端LLM推理与服务器端谷歌查询进行比较。我认为这忽略了真实搜索会话期间移动设备上发生的大部分情况。我建立了一个完整的端到端移动搜索会话参数模型:4G/5G无线电、屏幕、CPU、GPU、内存和网络堆栈。
适合谁
评估AI产品工作流的团队 / 比较新兴工具的构建者 / 追踪早期品类变化的运营者
为什么值得看
主要发现来源是Hacker News。
大语言模型在移动设备上的能耗比广告支持的网页搜索低5.4倍,这一发现正出现在新的信息平台上,因此在势头形成之际值得关注。当前置信度较低(41/100),请将其视为早期信号而非既定趋势。
Trend score
39.8
24h momentum
上升
Hacker News points
8
上升
这个产品的证据管道还没有产出足够稳定的可信性模块。
LLMs consume 5.4x less mobile energy than ad-supported web search
Listed on Hacker News as "LLMs consume 5.4x less mobile energy than ad-supported web search".
LLMs consume 5.4x less mobile energy than ad-supported web search official profile
Primary public product URL is https://dupr.at/thermodynamic-efficiency-inversion.