久湛科技再度发力,中标国家电网省级电力智慧决策研究项目

近日,上海久湛信息科技有限公司(以下简称“久湛科技”)凭借在人工智能与能源大数据领域的深厚积淀,成功中标国家电网旗下重点科研服务采购项目。 此次中标,标志着久湛科技在“能源+AI”智慧化决策领域的垂直深耕再次获得行业头部客户的高度认可。 核心优势:构建能源电力“智慧大脑” 本次项目聚焦于能源电力行业智慧决策辅助平台的关键技术研究。久湛科技将依托自主研发的底层架构,解决能源行业海量异构数据下的决策难题: 多源异构数据融合: 针对电力系统复杂的业务场景,实现跨部门、多维度数据的实时挖掘与语义分析。 智能化决策建模: 利用先进的算法模型,将枯燥的电力数据转化为直观的决策建议,助力管理层实现从“经验驱动”向“数据驱动”的跨越。 高可靠技术架构: 针对能源行业的特殊安全性要求,提供稳定、安全、可扩展的系统构建方案。 深耕电力赛道,助力数字化转型 作为深耕工业智慧化转型的技术驱动型企业,久湛科技长期致力于为电力、能源等基础性行业提供高价值的技术支撑。 此次中标的项目,不仅是久湛科技百万级科研服务矩阵中的重要组成部分,更是公司在智慧电网、数字化决策辅助领域技术能力的集中体现。通过此次合作,久湛科技将进一步深化与行业领军企业的技术协同,共同探索能源互联网背景下的管理新范式。 赋能未来 目前,项目已进入合同签署与方案深化阶段。久湛科技将秉持“专业、创新、高效”的理念,调配资深架构师与算法团队,确保该智慧决策辅助平台构建技术能够精准落地,为能源行业的数字化升级贡献力量。 久湛科技简讯: 公司专注于为大型企业提供智能化解决方案,核心业务涵盖工业互联网、智慧决策支持系统及垂直行业大模型应用。我们通过持续的技术创新,致力于成为复杂行业数字化转型的可靠伙伴。...
阅读更多

Superpowers —— 为 AI 智能体注入“软件工程之魂”

类别: 开发者工具 / 工程方法论 1. 什么是 Superpowers? 在 AI 编程时代,许多智能体(Agent)往往跳过设计直接编码,导致代码质量参差不齐且难以维护。Superpowers 是由顶级开发者 Jesse Vincent (obra) 发起的一套开源技能框架和软件开发方法论。 它的核心理念是:不只是让 AI 写代码,而是让 AI 像资深工程师一样思考。 Superpowers 通过一套可组合的“技能库”,强制 AI 遵循测试驱动开发(TDD)、系统化调试和前置设计(Design-First)等最佳实践。 [Image 1: Ad-hoc Coding vs. Superpowers Workflow] (视觉建议:左侧展示混乱的代码堆砌,标注“猜想与重写”;右侧展示清晰的阶梯式流程:头脑风暴 -> 设计规范 -> 编写测试 -> 实施计划 -> 验证完成) 2. 核心哲学:系统化胜过随机性 Superpowers 的架构建立在四个严谨的原则之上: 测试驱动开发 (TDD): 永远先写测试,再写代码。强制执行 “红-绿-重构” 循环。 系统化胜过随机猜想: 建立标准化的调试和开发流程,消除 AI 的“幻觉”和盲目尝试。 复杂度削减: 将“保持简单”作为首要目标,防止 AI 生成过度设计的冗余代码。 事实胜于雄辩: 在声明成功之前,必须通过自动化的验证步骤,用证据证明功能已修复。 3. 核心技能库 (The Skills Library) Superpowers 提供的技能并非简单的指令,而是带有“硬性约束”的工作流节点: 3.1 启发式头脑风暴 (Socratic Brainstorming) 在动笔之前,智能体会启动“苏格拉底式”追问,提炼需求细节,探索架构替代方案,并生成一份易于人类阅读和审批的设计文档。 3.2 极简任务分解 (Bite-sized Planning) 将复杂的开发任务拆解为每个仅需 2-5 分钟即可完成的原子任务,每个任务都包含明确的文件路径、代码逻辑和验证步骤。 3.3 四阶段系统化调试 (4-Phase Debugging) 告别反复重试。技能要求智能体通过:根因追踪(Root-cause tracing)、纵深防御(Defense-in-depth)、条件等待验证等四个阶段,彻底解决 Bug 及其潜在隐患。 3.4 自动化 Git 工作树 (Git Worktrees) 自动为每个任务创建隔离的开发分支,运行环境配置,并验证清洁的测试基线,确保开发过程的工程化整洁。 4. 跨平台兼容性 Superpowers 作为一个方法论框架,可以无缝集成到您现有的 AI 编程环境中: Claude Code / Cursor: 通过插件市场直接安装。 OpenClaw / Codex: 支持手动配置与集成,作为智能体的底层指令集。 5. 结语:让 AI 具备“合规性” Superpowers 的独特之处在于它应用了心理学中的“说服力原则”,通过压力场景测试(Pressure Scenarios),确保 AI 智能体即使在面临时间压力或沉没成本时,依然能够坚持执行 TDD 和文档编写等“繁琐但正确”的技能。 它不仅赋予了 AI 编程的“超能力”,更赋予了它作为专业工程师的纪律性。 资源链接 GitHub 仓库: obra/superpowers 技术深度解析: 为什么心理学原则能改变代码质量?...
阅读更多

OpenClaw运行在聊天软件中的全能 AI 代理

1. 缘起:从 Clawdbot 到 OpenClaw Clawdbot 最初由奥地利开发者 Peter Steinberger 发起,其灵感源于将 Anthropic 的 Claude 模型能力与本地操作系统深度结合。凭借其“让 AI 真正动手做事”的极客特性,该项目迅速在 GitHub 斩获数万星标,并于 2026 年正式更名为 OpenClaw。 尽管名称演变,但其核心使命从未改变:打造一个 24/7 全天候运行、具备物理操作权限、且完全受用户控制的私有 AI 雇员。 2. 核心架构:连接“大脑”与“感官” 不同于常规的 Web 端机器人,Clawdbot/OpenClaw 的架构设计包含三个关键层级: 2.1 统一网关 (Gateway) 这是智能体的“中枢神经系统”。它作为一个轻量级的本地服务端,负责: 路由分发: 将来自不同聊天频道的指令转化为模型可理解的任务。 状态持久化: 在本地(如 ~/.openclaw)以 Markdown 和 YAML 格式存储长期记忆、用户偏好与技能配置。 2.2 多渠道交互 (Multi-Channel Interface) Clawdbot 的破圈之处在于它不再局限于浏览器,而是直接寄生于你最常用的社交软件中: 支持频道: WhatsApp, Telegram, Slack, Signal, Discord 甚至 iMessage。 随时随地控制: 无论你在通勤路上还是午餐期间,只需发送一条消息,就能指挥家中的电脑执行复杂任务。 2.3 技能执行层 (Actionable Skills) 这是智能体的“双手”。通过内置的技能引擎,它能够: Shell 权限: 执行终端命令,进行环境配置或代码编译。 浏览器自动化: 自主访问网页、提取信息、甚至代为填写表单。 文件系统操作: 跨目录整理文档、分析日志或重构代码。 [Image: Clawdbot/OpenClaw Architecture - Connecting Chat Apps to Local OS via LLM] (视觉建议:展示一条闭环路径:用户通过手机 Telegram 发送请求 -> 运行在 Mac/PC 上的 OpenClaw 网关接收 -> LLM 思考决策 -> 调用本地工具执行 Shell/文件操作 -> 将结果回传给手机) 3. 为什么 Clawdbot 备受推崇? 隐私优先 (Local-First): 所有的对话摘要、上下文索引和私密凭证都存储在你的硬件(如 Mac Mini 或 VPS)上,而非云端厂商的数据库中。 主动性 (Proactivity): 通过心跳检测机制,它不仅能响应指令,还能根据预设频率主动监控任务(如“如果服务器报错,请立即在 Telegram 通知我”)。 自我进化能力: 作为一款“自我改进型”智能体,它能够根据用户需求自主编写新技能代码并完成安装,实现能力的动态增长。 4. 安装与安全警示 作为一个具备系统级权限的“极客玩具”,官方建议在配置时严格遵循以下安全准则: 沙盒运行: 尽可能在隔离的虚拟机或专用设备上运行。 权限白名单: 开启消息配对(Pairing)功能,确保只有授权账号能向智能体下达指令。 成本预警: 监控 API 消耗,防止自主智能体在循环执行任务时产生巨额账单。 5. 结语 从早期的 Clawdbot 原型到如今功能完备的 OpenClaw,这个项目代表了个人 AI 助手的新阶段——它不再仅仅是“会说话的百科全书”,而是能够理解你的工作习惯、住在你的社交列表里、并随时待命的数字孪生执行官。 资源链接 项目更名公告: 从 Clawdbot 迈向 OpenClaw 的演进之路 快速部署: curl -fsSL https://openclaw.ai/install.sh | bash...
阅读更多

OpenClaw —— 专为开发者打造的开源 AI 命令行科研与工程平台

1. 什么是 OpenClaw? OpenClaw 是一款前沿的开源 AI 命令行工具(CLI),旨在为开发者提供一个透明、高效且高度可定制的 AI 协作环境。 不同于市面上常见的闭源聊天网页,OpenClaw 直接植根于开发者的终端(Terminal)。它不仅支持调用云端顶级模型(如 Claude 3.5, GPT-4o),更深度优化了对本地模型(如 Gemma 4, Llama 系列)的支持。通过将强大的推理能力与本地文件系统、执行环境无缝结合,OpenClaw 成为了连接“模型大脑”与“开发双手”的桥梁。 [Image 1: OpenClaw CLI Interface Concept] (视觉建议:展示一个深色的终端窗口,左侧是代码流,右侧是 OpenClaw 的智能提示与执行反馈,体现极简与高效) 2. 核心设计哲学 OpenClaw 的设计遵循三大核心原则,确保其在激烈的 AI 工具竞争中脱颖而出: 2.1 数据主权与隐私(Data Sovereignty) 在处理敏感的商业代码或科研数据时,隐私是首要考量。OpenClaw 支持完全的本地化部署,配合 LossLess-Claw 等存储增强插件,确保您的对话历史、代码上下文和索引数据始终留在您的受控服务器或工作站中,实现“数据可用不可见”的安全边界。 2.2 极致的工程化透明度 作为一个开源项目,OpenClaw 的所有 Prompt 模板、工具调用逻辑和系统预设都是公开可见的。开发者可以清晰地观察到 AI 是如何思考、如何拆解任务以及如何调用工具的。这种透明度不仅方便了 Debug,更让开发者能根据特定项目需求进行深度微调(Fine-tuning)。 2.3 插件驱动的无限扩展 OpenClaw 不仅仅是一个工具,更是一个生态。通过 Agent Skills 系统,您可以轻松接入自定义的搜索工具、数据库连接器或特定领域的分析脚本,让 OpenClaw 进化为深谙您业务逻辑的领域专家。 3. OpenClaw 的关键能力 多模态深度集成: 支持图像识别与代码生成联动,例如通过截图直接还原 React 组件架构。 长文本无损记忆: 结合层次化摘要技术,支持在超长开发周期内保持背景信息的精准召回。 多模型自由切换: 预设支持 Ollama, vLLM, Anthropic 等主流后端,支持在推理成本与模型能力之间灵活平衡。 自主执行(Agentic Workflow): 具备读写文件、运行测试、搜索网络及自动修复 Bug 的闭环操作能力。 4. 为什么选择 OpenClaw? 对于 AI 架构师、系统集成商或高级开发者而言,OpenClaw 提供了一个**“本地优先”**的实验场。无论您是在构建新型电力系统的技术语料库,还是在进行复杂的生物信息分析,OpenClaw 都能提供稳定、可追溯且高性能的 AI 辅助支持。 5. 快速开始 仅需一行命令,即可开启您的 OpenClaw 之旅: Bash # 使用 npm 或官方脚本一键安装 npm install -g @openclaw/cli # 初始化配置 openclaw onboard 探索更多 官方文档: 快速入门指南 社区支持: GitHub 仓库与讨论区...
阅读更多

探索 OpenClaw 智能体技能 —— 从“对话助手”向“执行专家”的跨越

1. 什么是 OpenClaw Agent Skills? 在传统的 AI 交互中,大语言模型(LLM)往往受限于“言语”层面。而 OpenClaw 的核心使命是通过 Agent Skills(智能体技能) 体系,赋予模型直接操作外部世界的能力。 所谓“技能”,本质上是一套标准化的 工具调用(Tool Calling) 协议。它允许 OpenClaw 在感知到用户需求后,自主决定调用哪些本地或远程工具(如搜索、文件读写、代码运行、数据库查询等),从而完成复杂的闭环任务。 [Image 1: The "Brain to Hands" Evolution] (视觉建议:左侧展示一个孤立的大脑代表模型,右侧展示大脑通过多条机械臂连接到服务器、终端和 API,代表 Agent Skills) 2. 核心架构:插件化技能系统 OpenClaw 的技能系统采用了高度解耦的插件化设计,其卓越性体现在以下三个维度: 2.1 动态发现与自描述 每一个 Skill 都包含一个精密的 manifest.json 描述文件。模型在启动时会自动扫描这些技能,并理解它们的入参格式、返回类型及适用场景。这种“即插即用”的设计意味着开发者无需修改核心代码即可扩展功能。 2.2 跨平台兼容性 无论是本地运行的 Ollama,还是云端的 Claude 3.5 或 Gemma 4,OpenClaw 都能将复杂的插件逻辑抽象为模型可理解的 Function Calling 格式,确保技能在不同底座模型间的一致性表现。 2.3 安全沙盒机制 所有的执行类技能(如 shell_execute)均运行在受控的沙盒环境中。用户可以通过配置文件定义权限白名单,确保 AI 在自动执行任务时不会触碰敏感数据或核心系统设置。 3. 典型技能示例与实战应用 目前 OpenClaw 已原生内置并支持扩展多种高价值技能: 代码审计技能 (code_analyzer): 自动扫描当前目录下的源代码,识别潜在的 Bug 或性能瓶颈,并给出重构建议。 多模态感知技能 (vision_interpreter): 结合 Gemma 4 的能力,分析屏幕截图或设计稿,自动生成 React 或 Tailwind CSS 代码。 实时调研技能 (web_researcher): 自动爬取多个技术网站,汇总最新行业动态并输出结构化报告。 4. 如何开发你的第一个自定义技能? 为 OpenClaw 编写技能非常简单,只需三步: 定义逻辑: 使用 Python 或 TypeScript 编写工具函数。 编写描述: 为函数添加详细的 Docstring,明确每个参数的含义(模型将依靠这些描述来决定何时调用该工具)。 注册加载: 将脚本放入 ~/.openclaw/skills/ 目录,重启即生效。 TypeScript // 示例:一个简单的天气获取技能定义 export const getWeather = {   name: "get_weather",   description: "获取指定城市的实时天气信息",   parameters: {     type: "object",     properties: {       location: { type: "string", description: "城市名称,如:上海" }     },     required: ["location"]   },   execute: async ({ location }) => {     // 调用外部 API 的逻辑   } }; 5. 结语:构建你的私有技能库 OpenClaw Agent Skills 不仅仅是一个功能模块,它是开发者构建“自动化数字分身”的基础工具。随着技能库的不断丰富,你的 OpenClaw 将从一个简单的聊天窗口,进化为一个深谙你工作流、能自主解决问题的工程专家。...
阅读更多

聚焦数字技术研发 赋能科创平台建设 久湛科技与G60联席办开展合作交流

3月19日上午,上海久湛信息科技有限公司总经理、创始人高军考察G60科创走廊,双方围绕深化产业协同、服务科创中心建设、优化科创生态等开展深入交流。G60联席办副主任、松江区科创发展办主任陈超,G60联席办科创组组长、松江区科创发展办副主任宋苏伟参加座谈。 陈超指出,G60科创走廊作为一个区域化科创平台,持续完善概念验证、中试基地等载体功能,打响科技成果拍卖会特色品牌,开展产业与科创功能服务,推动G60科创走廊走深走实,品牌效应持续放大,高效服务上海(长三角)国际科技创新中心建设。他强调,依托上海市出台的《关于支持长三角G60科创走廊策源地建设的若干措施》,G60科创走廊与松江大学城科创源协同,强化科创要素资源供给,完善配套政策措施,科创生态体系不断完善。他表示,希望企业与G60科创走廊深化合作,G60也将发挥科技成果转化、联动九城资源等优势,不断拓展合作新场景,为企业高质量发展搭建舞台。 高军介绍了久湛科技公司情况。他表示,公司将充分发挥技术与资源优势,围绕产业行业细分领域,探索数据与AI为企业、政府、园区提供服务新路径,探讨建设技术研究分中心,为G60科创走廊创新平台建设贡献力量。 据悉,上海久湛科技创立于2013年2月,以丹纳赫IDBS(世界领先的研发数据管理专业软件商)中国研发中心为基础。公司聚焦数字技术领域的研发创新和创新实践,在物联网、大数据、人工智能和高性能计算领域,持续推进自研平台的技术研发与专业服务,为政府部门,管理机构、央企国企、研究机构、教育部门提供技术平台与知识赋能。(来源:长三角G60科创走廊)...
阅读更多

LossLess-Claw-Enhanced —— 为 OpenClaw 打造具备“永恒记忆”的第二大脑

1. 引言:告别 AI 的“健忘症” 在长时间的代码重构、复杂的项目规划或跨周的调研任务中,开发者常遇到一个棘手的痛点:随着对话轮次的增加,AI 智能体会因为“滑动窗口”限制而遗忘早期的关键决策和背景信息。 LossLess-Claw-Enhanced 是一款专为 OpenClaw 生态设计的上下文管理增强插件。它不仅仅是一个简单的存储工具,更通过层次化的摘要架构,赋予了智能体几乎无限的精准记忆能力,确保即便在数十万 Token 的超长对话中,早期的细节依然“触手可及”。 2. 核心技术特性 2.1 真正的无损上下文管理(Lossless Architecture) 传统方案往往通过直接截断或丢弃旧消息来腾出上下文空间。而 LossLess-Claw-Enhanced 采用了基于 DAG(有向无环图)的层次化摘要系统: 全量持久化: 所有原始交互数据均实时存入本地 SQLite 数据库。 递归压缩: 当上下文接近临界点时,系统会自动将旧消息压缩为高阶摘要,并保留指向原始数据的索引。 动态重构: 当智能体需要引用早期细节时,系统能根据需求动态展开摘要,实现 100% 的关键信息召回率。 2.2 深度中文与多语言优化 针对中文、日文等 CJK 字符在 Token 计算中常被低估导致内存溢出的问题,增强版进行了专项优化: 精准 Token 估算: 修正了原版对非英文文本的计数偏差,有效防止因上下文“隐形溢出”导致的模型响应异常。 语义对齐: 在生成摘要时,更精准地保留中文语境下的专有名词与逻辑关联。 2.3 智能体“搜索”技能集成 该插件为 OpenClaw 原生注入了多项记忆检索工具,使 Agent 具备了主动回溯的能力: lcm_grep: 跨历史记录进行全文搜索。 lcm_expand: 针对特定的摘要节点进行深度还原。 lcm_describe: 快速获取当前长对话的全局架构视图。 3. 安装与快速配置 您可以直接通过 OpenClaw 的插件管理命令行完成部署: Bash # 克隆增强版仓库 git clone https://github.com/win4r/lossless-claw-enhanced.git # 安装并注册插件 openclaw plugins install -l ./lossless-claw-enhanced # 验证安装状态 openclaw plugins inspect lossless-claw 在 config.json 中,建议将 contextEngine 切换为 lossless-claw,并配置高性能模型(如 Gemma 4 31B 或 Claude 3.5 Sonnet)作为摘要引擎,以获得最佳的记忆压缩效果。 4. 典型应用场景 多周项目跟踪: 即使跨越数个星期的开发周期,Agent 依然记得三周前关于系统架构选型的讨论细节。 自动化审计与合规检查: 完整保存每一步指令执行、代码变更与决策链路,形成天然的可追溯审计日志。 复杂代码重构: 在处理数万行规模的遗留代码还原时,保持对全局依赖关系的持续感知。 5. 结语 LossLess-Claw-Enhanced 的出现,标志着 OpenClaw 从一个“即时助手”向“长期协作伙伴”的进化。通过赋予 AI 稳定的长效记忆,我们正在让每一位开发者的数字分身变得越用越聪明。...
阅读更多

技术深度解析:解密 Claude Code 核心架构与源码工程化实践

1. 概述 Claude Code 是 Anthropic 推出的新一代命令行 AI 协作工具。不同于传统的 Chat 界面,它直接深入终端,具备文件系统操作、代码执行及实时调试能力。通过对其实战表现及底层逻辑的深度剖析,我们可以一窥未来 AI 原生(AI-Native)开发工具的设计范式。 2. 核心架构逻辑 Claude Code 的强大源于其精密的多层协作机制。其核心逻辑并非简单的 API 调用,而是一套完整的上下文管理系统: 智能上下文感知: 系统能够自动识别项目结构,通过静态分析提取代码依赖树,确保 AI 在处理复杂逻辑时拥有精准的局部与全局视野。 工具调用循环(Agentic Loop): 采用 ReAct 框架理念,模型不仅输出建议,还能自主执行 ls、grep、cat 等指令,并在执行结果的基础上进行自我修正。 安全沙盒设计: 为了保障代码安全,所有的执行与分析过程均遵循高度受控的权限校验逻辑,防止非预期的文件篡改。 3. 源码工程化挑战:从混淆到可读 在深入研究此类复杂工具的源码时,开发者常面临生产环境代码(Production Build)带来的挑战。为了将编译后的代码还原为高质量的开发态源码,我们需要关注以下技术路径: 3.1 模块与依赖重构 生产代码通常经过 Webpack 或 Babel 的深度处理,导致 createElement 调用变得晦涩难懂。高效的还原方案包括: 组件还原: 将 external_react_default().createElement 等指令精准恢复为 JSX 语法。 样式抽离: 识别 Styled-components 的混淆片段,将其重新映射回易读的模板字符串格式。 变量解构: 修正局部变量与全局引入的 Import/Export 逻辑,恢复代码的模块化语义。 3.2 类型安全与 TypeScript 转换 在将混淆代码迁移至现代 React 工程时,类型定义是核心痛点。通过对源码中闭包逻辑的分析,可以推导出组件的 Props 接口,从而完成从 JS 到 TypeScript 的高质量重构。 4. 关键应用场景 旧代码库重构: 利用 Claude Code 的分析能力,快速扫描遗留项目中的反模式(Anti-patterns),并提供自动化重构方案。 自动化测试生成: 结合源码逻辑,智能补全单元测试(Unit Test)与集成测试用例,覆盖复杂的边界条件。 实时 Debug 协作: 在命令行中直接描述报错信息,由 AI 结合上下文进行诊断并提供一键式修复建议。 5. 结语 Claude Code 的出现标志着开发者与 AI 的协作从“对话式”迈向了“工程式”。通过对这类工具底层逻辑的拆解与源码级理解,我们不仅能提升日常开发效率,更能为构建更智能、更安全的开发工作流提供宝贵参考。 技术贴士: 在处理经过 Webpack 混淆的代码还原时,建议优先使用 Babel 插件进行 AST 转换,以确保代码逻辑的一致性并避免正则替换带来的副作用。...
阅读更多

在OpenClaw中深度集成 Gemma 4 模型 —— 实现本地与前沿 AI 能力的无缝结合

随着 Google DeepMind 正式发布 Gemma 4 系列模型,开源社区迎来了多模态理解与推理能力的新巅峰。为了让开发者能够更灵活地在受控环境下使用这些强大的模型,OpenClaw 现已全面支持 Gemma 4 全系列(从轻量级的 E2B/E4B 到高性能的 31B 模型)。本文将详细介绍如何在 OpenClaw 环境中配置并优化 Gemma 4,以实现最佳的本地推理表现。 1. 核心技术优势 将 Gemma 4 集成至 OpenClaw 不仅仅是简单的接口对接,更是对本地 AI 工作流的一次全面升级: 原生多模态支持: Gemma 4 能够同时处理文本、图像及音频输入。在 OpenClaw 的插件系统中,用户现在可以直接通过 Gemma 4 进行复杂的跨模态分析。 长文本上下文: 凭借高达 256K 的上下文窗口(Context Window),Gemma 4 使 OpenClaw 在处理大规模代码库分析或长文档总结时表现得游刃有余。 结构化思考模式: Gemma 4 引入了全新的 Thinking 推理模式。OpenClaw 现已支持解析 <|think|> 标记,让用户在获得最终答案前,能够观察到模型的内部推理逻辑。 2. 配置与集成指南 2.1 依赖环境准备 在开始集成前,请确保您的本地环境满足以下要求: OpenClaw 版本: v1.4.2 或更高版本。 后端驱动: 推荐使用 Ollama 或 vLLM 作为底层推理引擎,以获得对 Gemma 4 权重的最佳兼容性。 2.2 配置步骤 您可以通过修改 ~/.openclaw/openclaw.json 配置文件或使用 onboard 命令快速完成集成: Bash # 使用命令行快速引导 openclaw onboard --auth-choice ollama 若手动配置,请在 providers 中添加以下模型定义: JSON {   "id": "gemma4:latest",   "name": "Gemma 4 (8B)",   "reasoning": true,   "contextWindow": 131072,   "maxTokens": 8192 } 3. 性能优化建议 (Best Practices) 为了在不同硬件条件下压榨出 Gemma 4 的最高性能,我们建议采取以下策略: 采样参数优化: 官方建议将 temperature 设置为 1.0,top_p 设为 0.95,以平衡生成结果的创造性与稳定性。 显存管理: 如果您运行的是 31B 较大的变体,建议在 vLLM 中使用 --gpu-memory-utilization 0.95 来最大化 KV 缓存,从而提升多轮对话的响应速度。 模态优先原则: 在进行多模态输入时,建议将图像或音频数据放置在提示词(Prompt)的最前端,这能显著提高模型对全局信息的感知效率。 4. 结语 Gemma 4 与 OpenClaw 的结合,为开发者提供了一个兼具隐私性与高性能的本地 AI 沙盒。无论是构建自主智能体(Agentic Workflows)还是进行复杂的代码重构,这一组合都展现出了极强的工程实用价值。...
阅读更多

久湛科技作为特别赞助商深度参与“AI FOR DISCOVERY”学术峰会 携手深算院共促人工智能与科学计算融合创新

“人工智能”正从技术名词加快演变为驱动基础科研与产业升级的“新质生产力”。在这一背景下,2026年3月23日,“AI FOR DISCOVERY:从范式革命到产业重构”学术峰会在港科大上海中心北杨基地成功举办。作为本次大会的特别赞助商,上海久湛信息科技有限公司深度参与会议组织与生态共建,充分展现了企业在人工智能赋能科学发现和产业升级领域的积极布局与创新实力。 本次大会由香港科技大学首席副校长、久湛信息联合创始人郭毅可教授担任大会主席。作为长期深耕人工智能、数据科学与产业创新融合发展的领军学者,郭毅可教授的深度参与,进一步凸显了本次峰会在学术引领、技术前瞻和产业协同方面的重要价值,也体现了久湛科技在高水平创新生态中的独特优势和战略地位。 峰会上释放出重要信号:香港科技大学正在上海积极推进AI for Science应用落地,加快推动前沿科研成果向现实生产力转化。会议期间,深圳计算科学研究院与上海久湛信息科技有限公司正式签署战略合作协议。未来,双方将依托崖山大数据底座,联合推进人工智能与科学计算的融合创新,围绕科学研究、算力支撑、模型应用与场景落地等方向开展深入合作,为科技创新与产业转型提供更强支撑。 此次战略签约,不仅是久湛科技面向AI for Science前沿方向的重要布局,也是企业持续深化“人工智能+科研”“人工智能+产业”融合创新的又一关键举措。通过与深圳计算科学研究院这样具有科研与平台优势的机构携手合作,久湛科技将进一步夯实自身在大模型应用、科学智能平台建设和行业场景赋能等方面的能力基础,推动人工智能技术在更广范围、更深层次实现落地应用。 值得一提的是,久湛科技还是港科大上海中心北杨基地重点入孵企业。此次以特别赞助商身份深度参与大会,并与深圳计算科学研究院达成战略合作,进一步印证了港科大上海中心“孵化赋能、生态协同”科创模式的成效。依托港科大上海中心的平台资源、创新网络与产业链接能力,久湛科技不断加强与高校、科研机构、创新企业和产业伙伴的协同互动,持续拓展人工智能技术的应用边界和产业价值空间。 面向未来,久湛科技将以此次峰会和战略合作为契机,继续发挥自身在人工智能、大模型、科学智能平台及产业应用融合方面的优势,依托港科大上海中心的创新生态和合作网络,持续深化与顶尖高校、科研院所及产业伙伴的协同创新,积极推动人工智能与科学计算、基础科研和产业升级深度融合,为培育新质生产力、建设开放协同的科技创新生态贡献更大力量。...
阅读更多