TechBlog
首页分类标签搜索关于
← 返回标签列表
加载中...

© 2025 TechBlog. All rights reserved.

#标签

共 255 篇文章
大语言模型实战三词编码技术演进从-机器识字符-到-AI-懂语义

大语言模型实战三词编码技术演进从-机器识字符-到-AI-懂语义

大家好,今天我们聊聊自然语言处理(NLP)的“地基”——词编码技术。从让机器“区分单词”到“理解语义”,这背后是四代技术的迭代,正好对应四张经典示意图。

时间:12/22/2025

LLM学习笔记7unsloth微调Qwen3-4B模型与vllm部署测试

LLM学习笔记7unsloth微调Qwen3-4B模型与vllm部署测试

本文介绍了使用Unsloth库高效微调Qwen3-4B大模型的方法。

时间:12/20/2025

每天一个AI小知识什么是多模态学习

每天一个AI小知识什么是多模态学习

多模态学习是人工智能的重要分支,让AI能同时处理文本、图像、音频等多种数据形式。本文系统介绍了多模态学习的概念、发展历程、核心技术(如模态融合、对比学习)、主流模型(CLIP、GPT-4、Gemini等)及其在智能助手、内容创作等领域的应用。文章还探讨了当前面临的模态异质性、数据稀缺性等挑战,并展望了全模态学习、实时理解等未来趋势。多模态学习正推动AI向更接近人类智能的方向发展,同时也引发了对智能本质、人机关系等哲学思考。

时间:12/20/2025

从豆包手机等看GUI-AgentMobileRL-GUI-Agent训练框架和安卓XML预处理

从豆包手机等看GUI-AgentMobileRL-GUI-Agent训练框架和安卓XML预处理

以上相关技术汇聚就是目前比较火的“GUIAgent”,顺藤摸瓜的翻到了一篇关于移动端GUIAgent训练框架-(也是用于AgentAutoGLM训练的框架)。下面来看看都解决了什么问题。视觉语言模型(VLM)(如Qwen2.5-VL、GLM-4.1V)让“零样本交互网页/移动界面”的GUIAgent成为研究热点。这类Agent可通过感知屏幕截图+解析UI结构,自主执行点击、滑动、输入等操作,无需人工干预,理论上能适配各类移动应用(如日历、购物、地图APP)。

时间:12/20/2025

Masked-Language-Models是什么

Masked-Language-Models是什么

MLM本质是一种“让模型通过猜词学语言”的训练方法,核心优势是能让模型深刻理解上下文语义,是很多语言理解类模型的“地基”。它就像一个“语言学霸”,通过大量“填空练习”吃透了语言的规律,之后不管是做阅读、匹配信息,还是辅助生成内容(比如RAG里的检索环节),都能发挥扎实的基础作用~

时间:12/18/2025

PaperReadingGPT-4-Technical-Report

PaperReadingGPT-4-Technical-Report

它是用“预测下一个词”的方式预训练的,之后又通过人类反馈优化过(让回答更靠谱、符合需求)。而且工程师们找到了方法,能通过小模型(计算量只有GPT-4的千分之一)的表现,提前猜到GPT-4能做到什么程度,不用等它完全训练完才知道。:GPT-4是个超厉害的“全能选手”,考试、干活都在行,还能看懂图片,但也会犯错、有局限,OpenAI也在尽力让它更安全,用的时候得留个心眼。:可以用来写东西、分析问题、辅助工作,但不能完全信它的输出,尤其是重要场景(比如法律、医疗),得有人把关。

时间:12/16/2025

AI核心知识50大语言模型之Scaling-Laws简洁且通俗易懂版

AI核心知识50大语言模型之Scaling-Laws简洁且通俗易懂版

ScalingLaws(缩放定律)是AI领域的核心规律,揭示了模型参数量、训练数据量和计算算力三要素与AI性能之间的幂律关系。该定律使AI发展从"炼丹"变为可预测的工程,推动OpenAI等公司开展算力军备竞赛。DeepMind提出的Chinchilla定律修正了早期观点,强调参数量与数据量需同步增长。当前面临数据短缺和算力瓶颈两大挑战,但若该定律持续有效,AI性能仍将快速提升。这一"大力出奇迹"的黄金法则,预示着GPT-4可能只是AI发展的起点。

时间:12/12/2025

Python-开发-OpenAI-兼容阿里云百炼平台-API

Python-开发-OpenAI-兼容阿里云百炼平台-API

Python开发-OpenAI兼容阿里云百炼平台API

时间:12/12/2025

每天一个AI小知识什么是大语言模型LLM

每天一个AI小知识什么是大语言模型LLM

摘要:本文系统介绍了大语言模型(LLM)的发展与应用。从大学生借助ChatGPT撰写论文摘要的案例切入,阐述了LLM的基本概念、核心技术原理及发展历程。文章详细解析了Transformer架构、自监督学习等关键技术,比较了GPT、BERT、LLaMA等主流模型的特点。同时探讨了LLM在内容创作、教育、商业等领域的广泛应用,以及面临的幻觉、偏见等挑战。最后展望了多模态融合、轻量化等未来发展趋势,并引发对智能本质、人机关系等哲学思考。本文为读者提供了全面了解LLM的技术框架和应用前景的参考。

时间:12/11/2025

超越简单问答SUPERChem基准揭示大语言模型化学深度推理的机遇与挑战

超越简单问答SUPERChem基准揭示大语言模型化学深度推理的机遇与挑战

近日,北京大学跨学科团队发布的化学大模型基准SUPERChem,如同一把精心锻造的“尺规”,不仅系统测量了当前顶尖模型的化学推理高度,更深刻揭示了其与人类专业认知之间尚存的沟壑,为AI赋能科学研究的下一阶段指明了方向。更深层次看,SUPERChem揭示了当前以大语言模型为代表的AI在迈向“科学智能”道路上必须跨越的鸿沟:如何将海量知识真正内化为可操控、可组合、可溯源的因果模型,而不仅仅是概率关联的集合。化学,以其严谨的底层逻辑与无限的现象组合,成为了检验这一目标的绝佳试金石。

时间:12/11/2025

计算机科学与应用预训练语言模型在日文文本难易度自动分类中的应用

计算机科学与应用预训练语言模型在日文文本难易度自动分类中的应用

摘要:本研究探讨了基于预训练语言模型的日语文本难易度自动分类方法。通过收集日本语能力测试(JLPT)真题及模拟题作为数据集,评估了14种日语BERT模型在2-5级分类任务中的表现。结果表明,东北大学发布的模型表现最优,其中tohoku-bert-large-japanese-v2在二分类任务中F1值达0.926。随着分类级别细化,模型性能有所下降。该研究为计算机辅助日语学习系统开发提供了技术支持,未来将探索更精细化的分类模型以优化个性化教学。

时间:12/10/2025

用-C-玩转字符级-Transformer-语言模型从原理到实现

用-C-玩转字符级-Transformer-语言模型从原理到实现

日常刷到的AI续写故事、自动写文案,背后都是语言模型在发力。很多人觉得这类模型是Python的“专属领域”,但其实用C++也能从零搭建一个基于Transformer的字符级语言模型——既能吃透底层原理,又能体验更贴近硬件的高效实现。今天就用大白话聊透:从核心原理到代码落地,怎么用C+++LibTorch玩转这个模型。

时间:12/09/2025

Mac-本地语音对话系统

Mac-本地语音对话系统

【代码】地语音对话系统。

时间:12/08/2025

论文阅读_FinRL-DeepSeek大语言模型赋能的风险敏感强化学习交易代理

论文阅读_FinRL-DeepSeek大语言模型赋能的风险敏感强化学习交易代理

大语言模型赋能的风险敏感强化学习交易代理

时间:12/08/2025

LLama-Open-and-Effecient-Foundation-Language-Models

LLama-Open-and-Effecient-Foundation-Language-Models

ThispaperisinspiredbytheChinchillascalinglaw.Itfoundthatgivenafixedcomputingbudget,thebestperformanceisnotgeneratedbythelargermodels,butbythesmallermodelstrainedonmoredata.Soitproposedacollectionofmodelsrangingfr

时间:12/06/2025

应用篇4Qwen2视觉语言模型VLM的服务器部署

应用篇4Qwen2视觉语言模型VLM的服务器部署

本文介绍了Qwen3-VL-2B视觉语言模型的安装与使用过程。首先通过pip安装所需依赖,然后使用ModelScope下载模型。在实践过程中遇到模型生成方法缺失、依赖缺失和网络连接超时等问题,通过改用Qwen2-VL-2B模型、安装缺失依赖和设置国内镜像源等方式解决。最终成功实现图片描述功能,模型能够详细描述图片内容,如人物状态和交通施工场景等。文中提供了完整的demo.py代码,包含模型加载、输入处理和结果生成等步骤,展示了该模型强大的视觉理解能力。

时间:12/05/2025

java后端工程师AI大模型开发进修ing研一版day60

java后端工程师AI大模型开发进修ing研一版day60

java随笔录——redis作为分布式锁,是如何实现的呢?AI随探录——智能输入法案例代码随想录——分割回文串

时间:12/04/2025

李飞飞最新思考语言模型救不了机器人

李飞飞最新思考语言模型救不了机器人

如果你是护士,我想特别告诉你,在我的职业生涯中,我投入了大量精力在医疗和健康研究上。从技术角度看,ChatGPT的出现依然离不开这三大核心要素,只是数据规模变成了互联网级,神经网络结构更复杂,用的GPU数量也更多,但底层的逻辑和原理并没有改变。一周后,李飞飞在最新的访谈再次提及那篇文章里尚未说尽的部分,把那些自己反复思考却在长文里无法完全展开的问题细致拆解,从语言模型在世界理解上的结构性短板,到三维空间在智能形成中扮演的基础角色,再到机器人长期停滞背后那些难以绕过的现实条件,她都给出了更具体的解释。

时间:12/03/2025

DeepSeek-论文精读15.-DeepSeek-V3.2开拓开源大型语言模型新前沿

DeepSeek-论文精读15.-DeepSeek-V3.2开拓开源大型语言模型新前沿

本文详细解读DeepSeek-V3.2技术报告和API使用指南。DeepSeek-V3.2新一代开源大型语言模型在推理能力和工具调用方面实现重大突破,模型已开源并更新至官方应用,为AI社区提供高性能开源选择。

时间:12/02/2025

电子书大语言模型综述391页

电子书大语言模型综述391页

2022年底,ChatGPT震撼上线,大语言模型技术迅速“席卷”了整个社会,人工智能技术因此迎来了一次重要进展。面对大语言模型的强大性能,我们不禁要问:支撑这些模型的背后技术究竟是什么?这一问题无疑成为了众多科研人员的思考焦点。必须指出的是,大模型技术并不是一蹴而就,其发展历程中先后经历了统计语言模型、神经网络语言模型、预训练语言模型等多个发展阶段,每一步的发展都凝结了众多科研工作者的心血与成果。

时间:12/02/2025

DeepSeek-V3.2推动开源大型语言模型的前沿发展

DeepSeek-V3.2推动开源大型语言模型的前沿发展

我们介绍了DeepSeek-V3.2,这是一个在高效计算与卓越推理及智能体性能之间取得平衡的模型。DeepSeek-V3.2的关键技术突破如下:(1)DeepSeek稀疏注意力(DSA):我们引入了DSA,这是一种高效注意力机制,在保持长上下文场景中模型性能的同时,大幅降低了计算复杂度。(2)可扩展的强化学习框架:通过实施稳健的强化学习协议并扩展后训练计算,DeepSeek-V3.2的表现与GPT-5相当。

时间:12/01/2025

高扩展性开源智能体开发多插件集成与优质资源编排技术落地

高扩展性开源智能体开发多插件集成与优质资源编排技术落地

在AI技术席卷各行各业的今天,从智能客服到个性化推荐,从科研辅助到生活助手,智能体的应用场景越来越广泛。如果你也想跻身AI浪潮,却苦于“入门无门、实战无路”,那么这篇教程将为你打通“理论+实践”的双路径——先推荐你去“AI大学堂”免费学习AI基础课程,这里有SQL交互、TensorFlow实战、AIGC前沿应用等课程,能帮你快速建立AI知识体系;待你打好基础后,再带你深度玩转“讯飞星辰Agent平台”,手把手教你搭建属于自己的智能体!

时间:12/01/2025

大语言模型如何重塑搜索引擎从链接罗列到知识服务的革命

大语言模型如何重塑搜索引擎从链接罗列到知识服务的革命

摘要:传统搜索引擎基于关键词匹配返回网页链接,用户需自行筛选整合信息,面临意图理解模糊、答案碎片化、缺乏上下文记忆等局限。大语言模型(LLM)驱动的搜索引擎通过三大能力重构搜索逻辑:1.深层意图拆解,结合显性/隐性需求生成精准答案(如亲子游场景推荐);2.知识整合与推理,利用知识图谱与检索增强生成(RAG)技术提供结构化、实时更新的答案(如光伏装机数据解析);3.多轮对话交互,通过上下文记忆实现渐进式知识探索(如追问细化配置问题)。这一转变使搜索引擎从“信息检索工具”升级为“知识服务助手”,大幅提升

时间:11/29/2025

笔记和各大AI语言模型写项目手搓SDN后得到的经验

笔记和各大AI语言模型写项目手搓SDN后得到的经验

AI编程助手正在改变程序员的工作方式,能够高效完成基础组件开发(如音乐播放器、星盘图表等),但在复杂逻辑嵌套时仍需人工干预。文章以手搓SDN为例,展示了AI在陌生领域的领路能力,同时指出其探索性问题的局限性。作者分享了使用AI编程的实用技巧:提供具体描述、设置验证关卡、引用参考代码等,强调人工校正的重要性。最后推荐claude4.5sonnet模型,通过清晰描述和echo校正可成功完成复杂任务部署。

时间:11/29/2025

上一页
12345...11
下一页第 1 / 11 页