
使用 Ollama 和 Qwen3 Reranker 模型对文档进行重排序 - 使用 Go 语言
实现 RAG?这里有一些 Go 代码片段 - 2...
由于标准 Ollama 没有直接的重排序 API,
您需要通过生成查询-文档对的嵌入向量并对其进行评分来实现 使用 Qwen3 重排序器在 GO 中进行重排序。
实现 RAG?这里有一些 Go 代码片段 - 2...
由于标准 Ollama 没有直接的重排序 API,
您需要通过生成查询-文档对的嵌入向量并对其进行评分来实现 使用 Qwen3 重排序器在 GO 中进行重排序。
很久以前我训练了一个目标检测AI模型
在一个寒冷的七月冬天……
那是在澳大利亚……
我感到迫切需要训练一个AI模型,用于检测未封口的混凝土钢筋……
qwen3 8b、14b 和 30b,devstral 24b,mistral small 24b
在这项测试中,我正在比较不同LLMs在Ollama上如何将Hugo页面从英语翻译成德语。
我测试的三页内容涉及不同主题,其中包含一些结构良好的markdown内容:标题、列表、表格、链接等。
实现 RAG?这里有一些用 Golang 编写的代码片段。
这个小的 Go代码示例重新排序调用Ollama生成嵌入 用于查询和每个候选文档, 然后按余弦相似度降序排序。
考虑安装第二块GPU用于大型语言模型吗?
这取决于具体任务。对于训练和多GPU推理,性能下降非常明显。
使用LLM从HTML中提取文本...
在 Ollama 模型库中,有一些模型可以 将 HTML 内容转换为 Markdown,这对内容转换任务非常有用。
它们之间有什么不同?
游标AI对比GitHub Copilot对比Cline AI对比...
以下是一些AI辅助编码工具及其优点的列表。
随着技术的发展,这些工具已经取得了显著的进步。 vibe 编程概念
这里我列出并概述一些目前较为突出的AI编码工具。许多工具都是作为IDE扩展实现的,例如 VS Code 扩展 。
大型语言模型提供商简要列表
使用大型语言模型(LLM)的成本并不高,可能不需要购买新的高性能GPU。
以下是一份云上LLM提供商列表,列出了他们托管的LLM。
Ollama 在 Intel CPU 上的效率核心与性能核心对比
我有一个理论要测试——如果利用所有Intel CPU核心是否能提高LLMs的速度?。
困扰我的是,新的gemma3 27位模型(gemma3:27b,17GB在ollama上)无法适应我GPU的16GB显存,部分运行在CPU上。
人工智能需要消耗大量算力……
在现代世界纷乱的环境中,我在这里比较不同显卡的技术规格,这些显卡适用于AI任务
(深度学习,
目标检测
和大语言模型)。
不过它们都非常昂贵。
配置 ollama 以并行执行请求。
当 Ollama 服务器同时收到两个请求时,其行为取决于其配置和可用的系统资源。
什么是这种时髦的AI辅助编程?
氛围编程 是一种由人工智能驱动的编程方法,开发者通过自然语言描述所需的功能,从而让人工智能工具自动生成代码。
MM* 工具套件已达到生命周期终点……
我之前使用过 MMDetection (mmengine, mdet, mmcv),用得不少,
但现在看起来它似乎已经退出了舞台。
真可惜,我喜欢它的模型库。
将两个 deepseek-r1 模型与两个基础模型进行比较
DeepSeek’s 第一代推理模型,其性能可与 OpenAI-o1 相媲美,包括基于 Llama 和 Qwen 的 DeepSeek-R1 的六个密集模型。