当前的语言大模型与人类大脑
引言大语言模型(LLM)在近年来展现出了惊人的语言能力:写代码、推理、创作、对话……这些能力的涌现让人不禁追问:它到底是怎么工作的?和人类大脑相比,有哪些本质的异同?本文尝试用尽可能通俗的语言,梳理一遍大模型的完整训练流程,以及它与人类智能的深层对比。 一、大模型的训练:四个阶
引言大语言模型(LLM)在近年来展现出了惊人的语言能力:写代码、推理、创作、对话……这些能力的涌现让人不禁追问:它到底是怎么工作的?和人类大脑相比,有哪些本质的异同?本文尝试用尽可能通俗的语言,梳理一遍大模型的完整训练流程,以及它与人类智能的深层对比。 一、大模型的训练:四个阶
前言 其实用Hermes和OpenClaw有一段时间了。一开始我们发现OpenClaw呢,响应速度极慢,然后切换到了Hermes。最终通过阅读session日志才发现,其实每次对话,不管是Hermes也好,还是OpenClaw也好,它会在system prompts里面
背景 类GPT的大模型在诞生之初,许多人仅仅将它作为日常对话、解决问题的助手,那时大模型还鲜有与外部工具链接的能力;但是当时就开始许多人渐渐的不再写大段文章了,论文、乃至文案、视频号都由大模型生成的或者润色,人们其实很少有静下心来真正写一些东西,网络上开始遍布大模型生成
前言:一个“贴心”的快递提醒装置 自从住进现在的小区,如何有效地提醒快递和外卖小哥,就成了一个不大不小的烦恼。在门上贴纸条吧,不美观还容易掉;用智能门铃吧,又不是每次都方便接听。我一直在想,能不能在门口放一个“动态便签”,根据家里的情况,自动给他们显示不同的提醒? &e
前言:一个不安分的“智能家居”灵魂 作为一个智能家居爱好者,我一直致力于将家中万物都接入 Home Assistant 的统一管理之下。从灯光、窗帘到各种传感器,一切都安排得明明白白。但唯独有一个东西,像一座孤岛,顽固地游离在我的智能网络之外——小区门禁和电梯系统。 &
前言 书接上回,在我为 Home Assistant 打造了一个强大的 MCP 代理服务,让它成功接入了 AI “大脑”之后,一个新的念头又冒了出来:一个真正智能的家居中枢,不仅要会“思考”,还应该能“听”会“说”,对吧?  Home Assistant 的语
前言 自从上一篇博文分享了我用 Gemini 开发的一系列 MCP 服务器小工具后,我越发觉得 MCP 协议的潜力巨大。它就像一个“万能插座”,能让 AI 大脑轻松地连接上各种各样的“电器”(服务)。但很快,一个新的问题摆在了我面前:随着我开发的 MCP 服务器越来越多
前言 最近一段时间,我迷上了探索大语言模型(LLM)的能力边界,特别是如何让它们与真实世界的各种服务进行交互。模型上下文协议(Model Context Protocol, MCP)为我们提供了一个绝佳的框架,可以将各种功能封装成 AI 可调用的工具。在 Gemini
前言 作为一名电子书爱好者,多年来我一直使用 Calibre 来管理我日益增长的书库。Calibre 功能强大,无愧于“瑞士军刀”的称号。然而,在移动设备上管理和访问书库一直是个痛点。官方的 Calibre Content Server 界面略显陈旧,在手机上的体验不佳
前言 群晖的nas系统一直以用户界面易用著称,但是有个问题一直困扰便是群晖的硬盘休眠唤醒问题,个人认为对于机械硬盘来讲应要么禁用唤醒功能,要么应保持长时间休眠状态,频繁的休眠唤醒启动对硬盘故障率可能有一定影响。本文考虑在家用条件下应尽可能让硬盘保持休眠以获得最低的功耗和