老蛀虫
LV.2
这个用户很懒,还没有个人简介
声望 132
关注 0
粉丝 0
私信
主帖 9
回帖
阿里Qwen团队推出了一些​很棒的NewVision语言模型,第一个模型是Qwen2VL2B,然后是8B,然后是72b。在这三个模型中,只有2B和8B模型目前是开源的,而72b模型尚未开源,这有点令人失望,但我认为这没关系,因为我们这些凡人无论如何都无法运行它,72b模型可以通过API获得:​​​https:dashscope.console.aliyun.com​​​我给了一个这样的图片:这是他的结果Qwen2VL72B:这是一张展示图像转换前后的对比图。图片的左上角有“Ide...
5h前 20浏览 0点赞 0回复 0收藏
GoogleDeepMind的最新版本GeminiExp1114,在ChatbotArena上取得了重要成就,凭借超过6000个社区投票,跃升至总榜第1,并在多个领域表现出色:总排名:3>1数学:3>1难题解答:4>1创意写作:2>1视觉识别:2>1编程:5>3首先,我们要理解LLMArena是什么。LLMArena(或称聊天机器人竞技场)是一个评估LLM的平台,主要目标是促进社区驱动的LLM性能评估。它是最有声望的评估平台之一。从总榜来看,谷歌新模型Gemini(Exp1114)分数直涨...
3天前 192浏览 0点赞 0回复 0收藏
Qwen发布了13个新模型,这些新模型被称为Qwen2.5。这次发布有三种类型的模型:通用任务模型、编码模型和数学模型。通用任务模型有七种尺寸:0.5B模型、1.5B模型、3B模型、7B模型、14B模型、32B模型和72B模型。编码模型有1.5B和7B尺寸,未来还会推出32B版本,但目前尚未提供。与此同时,数学模型有1.5B、7B和72B尺寸。这些模型都是开源的,并根据Apache2.0许可发布,除了3B和72B版本。他们还发布了Qwen2.5Plus和Turbo版本,这些...
6天前 343浏览 0点赞 0回复 0收藏
我们将介绍Crawl4AI以及如何利用它来从不同网站或互联网上的其他任何地方爬取和抓取数据,只要该网站支持抓取或爬取功能。当我们与ChatGPT一起工作,构建可以连接互联网外部数据源的Rag系统时,爬取和抓取数据就变得非常重要,因为你需要抓取并获取外部数据、实时数据或现实世界的数据,我们通常在这一过程中遇到困难。我将介绍一个名为Crawl4AI的开源工具,这是一个GitHub上的开源项目,任何人都可以使用,只需几行代码,你就...
2024-11-11 16:18:38 302浏览 0点赞 0回复 0收藏
Hi,这里是Aitrainee,欢迎阅读本期新文章。大家应该都有接到过某某运营商或者某某银行的电话AI助理,它们的语气已经很接近真实人类的声音。但是与我们对话的交互点比较局限,以至于听了头一两句就知道对方是——AI。似乎缺少智能体的特征...BlandAI的这个对话AI智能体,可以集成到公司系统、从公司文档知识库中检索知识+必要时转人工。BlandAI有时甚至假装是人类,此外,它利用通话数据训练训练迭代自己。视频中展示了BlandAI...
2024-11-05 15:18:30 205浏览 0点赞 0回复 0收藏
Hi,这里是Aitrainee,欢迎阅读本期新文章。我们正在使用一些Agent平台如FastGPT和Dify,他们注重于快速生成文本内容,知识库问答,提供自定义能力和与现有系统的集成性。同时,在AI绘画方面,我们原来使用SD,后来使用ComfyUI。虽然ComfyUI被广泛用于将文本转化为图像(文生图),但它实际上是一种生成式AI内容(AIGC)的工具,其功能不仅限于此。它还能够处理文本生成(文生文),因此可以实现多种内容的生成。Dify中也有提供...
2024-10-31 14:04:47 369浏览 0点赞 0回复 0收藏
Qwen刚刚发布了13个新模型,这些新模型被称为Qwen2.5。这次发布有三种类型的模型:通用任务模型、编码模型和数学模型。通用任务模型有七种尺寸:0.5B模型、1.5B模型、3B模型、7B模型、14B模型、32B模型和72B模型。编码模型有1.5B和7B尺寸,未来还会推出32B版本,但目前尚未提供。与此同时,数学模型有1.5B、7B和72B尺寸。这些模型都是开源的,并根据Apache2.0许可发布,除了3B和72B版本。他们还发布了Qwen2.5Plus和Turbo版本,...
2024-10-25 14:19:40 964浏览 0点赞 0回复 0收藏
Hi,这里是Aitrainee,欢迎阅读本期新文章。前两天,微软开源了Bitnet.cpp,这是一个重磅消息。简单来说,这意味着你现在可以在CPU上运行像72B甚至更大的超级大模型。原因是这些模型的精度已经降低到1位。Bitnet.cpp是一个超级高效的1位LLM推理框架,你可以在本地设备上以高达六倍的速度运行100B模型,并且能耗降低82.2%。Bitnet.cpp未来还会支持NPU和GPU,它在ARMCPU上能让模型速度提高1.37到5.07倍,同时能耗降低55.4%至70%。...
2024-10-22 14:29:02 1777浏览 0点赞 0回复 1收藏
Hi,这里是Aitrainee,欢迎阅读本期新文章。我们以前介绍了HybridRAG、GraphRAG这些,今天我们将介绍一个崭新的RAG项目:LightRAG。现有的RAG系统老是搞不清复杂关系,答案经常被切碎,缺乏上下文,难以真正理解问题。而LightRAG就是来解决这些问题的,它把图结构引入文本索引和检索,采用双层检索系统,从低到高全面覆盖信息。更酷的是,它还能快速更新数据,保持实时高效的响应,而且它已经开源了哦!并且你现在可以通过简单...
2024-10-17 16:39:19 578浏览 0点赞 0回复 0收藏
获得成就
已积累 1020 人气
获得 0 个点赞
获得 1 次收藏