51CTO内容精选
LV.9
官方
汇聚51CTO网站AIGC方向的优秀原创和译文内容
声望 3410
关注 0
粉丝 6
私信
主帖 225
回帖
我在过去设计对话式系统时亲眼目睹了传统AI的局限性。我设计的系统可以可靠地检测实体,但其僵硬的逻辑使得这种解决方案不能扩展。对话遵循预先编程的路径:如果用户说X,就回应Y。任何偏差都会破坏整个流程,凸显出这类系统有多死板多僵硬。基于基础模型的代理改变了这一切。它们是自主系统,能够处理不可预测的场景并无缝协作。代理可以规划行程、收集实时数据或管理客户账户,随时适应变化。代理不仅仅是工具的使用者,它们...
13h前 179浏览 0点赞 0回复 0收藏
译者张哲刚审校重楼AI编码助手改变了开发人员编写软件的方式。它们可以自动执行重复性的任务,及早发现错误,进而加快开发进度。但是,并不是所有的AI编码工具在构建时都考虑到了安全性这个重要的问题。DeepSeek是最优秀最有前途的免费AI编码助手之一。它被誉为游戏规则改变者,其推理模型堪比OpenAIo1,甚至更好。它能够提供高级代码建议,并且支持多种编程语言。​但有一个问题是——当你输入代码后,你知道都发生了些什么吗...
3天前 308浏览 0点赞 0回复 0收藏
本文讲述LLM开发生命周期的详细技术指南,涉及原始文本预训练、指令调整及人类校准。大语言模型(LLM)通过引入文本生成、摘要和会话式人工智能等高级应用程序,对自然语言处理(NLP)产生了影响。像ChatGPT这样的模型使用一种叫做“Transformer”的特定神经结构来预测序列中的下一个单词,通过自注意(Selfattention)机制从大量的文本数据集中学习。本指南分解了训练生成式人工智能模型的逐步建立过程,包括预训练,微调,对...
3天前 352浏览 0点赞 0回复 0收藏
大语言模型(LLMs)是经过海量文本(有时包含其他数据)训练的高级人工智能系统,能够理解和生成类人语言。它们使用具有数十亿参数的深度神经网络架构(通常为Transformer架构),以连贯且具备上下文感知的方式预测和生成文本。如今的LLM不仅能进行对话、编写代码、分析图像,还能通过训练数据中学习到的模式完成更多复杂任务。某些LLM尤其因突破AI能力边界而脱颖而出:GPT4o、Claude3.5Sonnet、Gemini2.0Flash、Grok3和DeepSee...
4天前 548浏览 0点赞 0回复 0收藏
代理AI是AI发展的新前沿
原创
头条 社区头条
代理人工智能可以利用多个代理的集体智能,来自动化决策过程,彻底改变行业,并推动产业的转型。2022年11月30日,OpenAI通过发布ChatGPT,普及了生成式人工智能(GenAI),也引发了一场对于AI的追捧。最近,代理人工智能(AgenticAI)已悄然的兴起,它虽然没有遇到同样的炒作,但是很可能会彻底改变不同行业,并推动产业的转型。什么是代理AI?有人认为代理AI属于人工智能发展​​五层级​​中的第三层级,即:夹在作为第一层级...
5天前 249浏览 0点赞 0回复 0收藏
译者刘汪洋审校重楼大语言模型(LLMs)在技术发展上取得了显著突破。OpenAI的o3、Google的Gemini2.0和DeepSeek的R1展现出了卓越的能力:它们能处理复杂问题、生成自然的对话内容,甚至精确编写代码。业界常把这些先进的LLMs称为"推理模型",因为它们在分析和解决复杂问题时表现非凡。但我们需要思考一个关键问题:这些模型是否真的具备推理能力,还是仅仅在规划方面特别出色?这个差异虽然细微,却对理解LLMs的本质至关重要。让我...
6天前 337浏览 0点赞 0回复 0收藏
本文将探讨如何构建一个RAG系统并使其完全由语音激活。RAG(检索增强生成)是一种将外部知识用于额外上下文以馈入到大语言模型(LLM),从而提高模型准确性和相关性的技术。这是一种比不断微调模型可靠得多的方法,可以改善生成式AI的结果。传统上,RAG系统依赖用户文本查询来搜索矢量数据库。然后将检索到的相关文档用作生成式AI的上下文输入,生成式AI负责生成文本格式的结果。然而,我们可以进一步扩展RAG系统,以便能够接受...
7天前 220浏览 0点赞 0回复 0收藏
2025年将成为AI智能体之年。在本文的场景中,AI智能体是一套能够利用AI通过一系列步骤实现目标的系统,且具备就结果进行推理及更正的能力。在实践中,智能体遵循的步骤可总结成图表形式。我们将构建一款响应式应用(对来自用户的输入做出响应),帮助人们规划自己的完美假期。此智能体将根据用户指定的餐食、海滨和活动需求,在指定的国家地区内推荐最佳城市。智能体基本架构如下:在第一阶段,智能体将并行收集信息,根据单一...
2025-02-21 08:11:29 251浏览 0点赞 0回复 0收藏
本文将介绍提升扩散模型质量的六种方法,从而帮助终端用户达到画家级的精准作图水平。简介StableDiffusion模型1.52.02.1XL1.0版本、DALLE模型、Imagen模型……在过去几年中,扩散模型在图像生成方面展现出了惊人的质量。然而,虽然这些模型在通用概念上产生了高质量的图像,但它们却难以为更专业的查询生成高质量的图像,例如生成训练数据集中不常见的特定风格的图像。我们可以在大量图像上重新训练整个模型,从头开始解释解决...
2025-02-20 10:10:53 266浏览 0点赞 0回复 0收藏
本文聊聊事件驱动型设计如何协调多个AI智能体,进而建立起高效、可扩展的推理系统。大语言模型的能力上限止步于聊天机器人、问答系统、翻译等特定语言,要想进一步展现潜力、解决更广泛的问题,就必须想办法让它根据洞察力采取行动。换言之,只有掌握了推理的武器,大语言模型才算真正的完全体。这种推理智能体在AI研究领域有着悠久历史,他们能够对以往接触过的情况进行概括,再据此处理从未见过的情况。在此基础之上,只要能...
2025-02-19 10:46:09 316浏览 0点赞 0回复 0收藏
OpenAI公司推出o3mini推理模型,展示了更详细的思维链轨迹,并希望以更透明的方式弥合与显示其全部思维链的DeepSeekR1的竞争差距。生成式人工智能开发商OpenAI公司首席执行官SamAltman最近在​RedditAMA​​问答活动中承认,该公司在开源软件研究方面站在了“历史错误的一边”。尽管OpenAI公司尚未发布其开源模型,但已经迈出了提高透明度的第一步。正如该公司在其​X帐号​​上所宣布的那样,其最新的推理模型o3mini现在展示了...
2025-02-18 08:12:09 352浏览 0点赞 0回复 0收藏
大模型应用程序中的提示词重复率高达70%。前缀缓存机制能够将推理成本降低达90%,显著优化性能并节约资金。是不是总感觉ChatGPT响应缓慢?大家可能没有留意,大模型应用程序的提示词重复率高达70%,问天气、问翻译和问节日安排的内容大量出现,且每次都要消耗算力进行处理。这样的情况在分布式集群的各节点上被无数次放大,白白烧掉宝贵的能源和金钱。为此,Anthropic日前详细介绍了如何利用提示词缓存技术将推理成本降低90%。...
2025-02-17 10:47:05 501浏览 0点赞 0回复 0收藏
本文介绍了多代理微调的基本概念,框架组成,以及在实际应用中的优势。最近,麻省理工学院、哈佛大学、斯坦福大学以及DeepMind的研究人员联合提出了一种新技术,它使用​多个代理​​(MultipleAgents)来解决大语言模型(LLM)最紧迫的问题之一:缺乏高质量的训练数据。毕竟顶尖模型已经消耗了互联网上的大部分可用的内容,并让AI实验室已经用完了适合训练LLM的数据。解决这一瓶颈问题的一种方案是通过创建合成数据(Synthetic...
2025-02-14 08:03:36 382浏览 0点赞 0回复 0收藏
OpenAI发布全新AI智能体Operator,本文带你一探如何用它简化软件测试、减少工作量并提高准确性。测试是项既关键、又相当繁杂的过程。保障每项功能、每个流程和每种极端情况都能按预期运作往往要占用大量时间和人力。而手动测试虽然更全面,但却极易出现人为错误并影响效率。OpenAI最近发布一款先进AI智能体,有望为传统软件测试方法带来新的可能性。Operator是什么?Openrator是一款由AI驱动的智能体,旨在以拟人方式与数字系统...
2025-02-13 08:30:39 758浏览 0点赞 0回复 0收藏
生成式人工智能的应用需要构建坚实的数据基础。而构建健壮的数据基础、选择最佳模型、优化训练技术、部署策略及解决监控问题,是应用成功的关键。生成式人工智能(GenAI)正通过重塑创造力、内容及数据的管理方式,对商业世界产生深远影响。对于组织来说,为了有效地利用这项技术,他们必须构建坚实的数据基础,尤其是要确保数据的高质量。数据质量不佳可能导致偏见或产生误导性的结果,因此实现数据清洗和预处理措施(例如消除...
2025-02-12 08:05:11 536浏览 0点赞 0回复 0收藏
记忆感知训练(MAT)这种训练范式通过修改模型逻辑以防止机器学习模型学习虚假相关性,提高了泛化能力,缩小了平均准确率(AVG)和最差群组准确率(WGA)之间的差距。机器学习领域长期存在的问题之一是错误相关性的记忆。例如:假设开发人员正在开发一个深度神经网络对陆地鸟类和海洋鸟类的图像进行分类。他们使用数千张标记过的图像训练模型,这个模型在训练集和测试集上的表现都非常出色。然而,当向模型展示一张在兽医那里接...
2025-02-11 08:08:02 253浏览 0点赞 0回复 0收藏
本指南展示了如何使用HuggingFace的Transformer模型构建语义搜索引擎,以提供更精确、更贴合场景的搜索结果。你也许会好奇,像谷歌这样的搜索引擎是如何将“预算友好的度假胜地”(budgetfriendlyvacationspot)和“廉价的旅游地点”(cheapplacestotravel)等短语解释为基本相同的查询?这正是语义搜索的强大之处。传统搜索引擎严重依赖于精确的关键字匹配,它们只查找包含查询中输入的确切单词的文档或结果。例如,你如果搜索...
2025-02-10 08:16:26 919浏览 0点赞 0回复 0收藏
在本文中,我们将共同了解如何使用DeepSeekR1大模型构建智能简历分析应用,节约运营成本。DeepSeek开源大模型的发布已经在技术社区引发巨大轰动。如今,开发者们无需接入Claude、ChatGPT等在线AI模型,即可轻松实现本地应用程序构建。换言之,开源大模型准入门槛的持续降低,为企业应用程序与生成式AI的集成打通了机会之桥。在本文中,我们将学习如何在个人设备上本地运行开源模型,进而构建一款由React和NodeJS驱动的全栈应用...
2025-02-08 08:15:31 828浏览 0点赞 0回复 0收藏
在2025年当下,大语言模型(LLM)依旧无法获取用户的私有数据。当用户向其询问某些与个人相关的问题时,大语言模型要么凭借推测进行回应,要么给出错误的解答。这体现了大语言模型存在的固有局限性——它们仅基于公开信息进行训练,无法获取用户的私有上下文信息。内存代理(MemoryAgent)则通过实时且安全地将用户的私有数据与任意大语言模型进行链接,有效解决了上述问题。在本教程中,笔者将详细指导你如何借助Langbase(一...
2025-02-07 08:31:11 441浏览 0点赞 0回复 1收藏
本文中,我们将介绍如何使用开源的AI多代理框架AG2和开源的向量数据库ChromaDB构建一个多代理RAG系统。引言近年来,检索增强生成(RAG)系统得到了迅速改进。理想情况下,我们可以将其演变划分为三个阶段。第一阶段,即在LLM出现之前,信息检索系统主要依赖于传统的搜索算法和索引技术。这些系统在理解上下文和生成类似人类的响应方面的能力是非常有限的。第二阶段,出现了LLM(大型语言模型)阶段,导致了剧烈的范式转变。现在...
2025-02-06 08:19:14 547浏览 0点赞 0回复 0收藏
获得成就
已积累 5.8w 人气
获得 5 个点赞
获得 6 次收藏