0%

了解了Agno的基本运行原理,再来深入了解一下进阶的概念。 本文针对于Workflows概念进行深入研究。 🧩 什么是 Workflows(工作流)? Agno 的 工作流(Workflows) 让你可以通过一系列定义好的步骤(steps) 来编排智能体(Agents)、团队(Teams)以及函数(Functions),从而构建出 确定性(deterministic)、可控(controlled) 的智能系统。 与自由形式(free-form)的智能体交互不同,工作流提供结构化的自动化控制,保证每次执行的逻辑一致、结果可预测,因此非常适合需要可靠性与可重复性的生产环境。 🚀 为
Read more »

了解了Agno的基本运行原理,再来深入了解一下进阶的概念。 本文针对于Teams概念进行深入研究。 概述 一个 Team(团队) 是由多个智能体(或其他子团队)组成的集合,它们协作完成任务。 下面是一个简单示例: 1 2 3 4 5 6 7 8 from agno.team import Team from agno.agent import Agent team = Team(members=[ Agent(name="智能体 1", role="你用英文回答问题"), Agent(name="智能体 2", role="你用中文回答问题"), Team(
Read more »

Agno是一个用于构建AI智能体(包括多模态智能体和多智能体)的开源Python框架,支持工具调用、记忆、知识检索、可观测性等特性,可用于生产环境,它一个特点是非常快,官网有它与其他框架的一个速度对比。 这里将对Agno进行下研究。 安装 创建虚拟环境 1 2 uv venv --python 3.12 source .venv/bin/activate 安装依赖 1 uv pip install -U agno openai anthropic mcp "fastapi[standard]" sqlalchemy 配置key 1 export OPENAI_API_KE
Read more »

如果说大模型(LLM)是“大脑”,智能体(Agent)是“手脚”,那么大数据(Big Data)就是“环境”与“土壤”。 过去十年,大数据解决的核心问题是“存储与计算”;未来十年,智能体与大数据结合解决的核心问题将是“理解与行动”。 结合行业的前沿实践,我认为智能体与大数据的深度结合点主要体现在以下四个维度: 一、 交互层结合:从“人找数”到“数找人”的范式革命 这是最直观,但也是最颠覆的结合点。 1. 智能体作为大数据的“超级接口” (The Agentic Interface) 传统大数据的使用门槛极高(SQL、Python、BI 拖拽)。 * 现状:业务人员看 Dashboa
Read more »

介绍 之前写过一篇使用NvChad来配置Neovim的博客,今天试试使用LazyVim来将Neovim打造成IDE。 教程: * LazyVim for Ambitious Developers * Zero to IDE with LazyVim 前置条件 LazyVim需要的前置条件(软件及其版本号)要满足要求,可参见官方文档。 Neovim 1 brew install neovim 如果遇到问题,可以参考这一篇。 安装LazyVim Starter 备份当前配置 1 2 3 4 5 6 7 # required mv ~/.config/nvim{,.bak}
Read more »

资料 52讲轻松搞定网络爬虫 遇到动态页面怎么办,详解渲染页面提取 前面我们已经介绍了 Scrapy 的一些常见用法,包括服务端渲染页面的抓取和 API 的抓取,Scrapy 发起 Request 之后,返回的 Response 里面就包含了想要的结果。 但是现在越来越多的网页都已经演变为 SPA 页面,其页面在浏览器中呈现的结果是经过 JavaScript 渲染得到的,如果我们使用 Scrapy 直接对其进行抓取的话,其结果和使用 requests 没有什么区别。 那我们真的要使用 Scrapy 完成对 JavaScript 渲染页面的抓取应该怎么办呢? 之前我们介绍了 Seleni
Read more »

资料 52讲轻松搞定网络爬虫 无所不知的Scrapy爬虫框架的介绍 在前面编写爬虫的时候,如果我们使用 requests、aiohttp 等库,需要从头至尾把爬虫完整地实现一遍,比如说异常处理、爬取调度等,如果写的多了,的确会比较麻烦。 那么有没有什么办法可以提升我们编写爬虫的效率呢?当然是有的,那就是利用现有的爬虫框架。 说到 Python 的爬虫框架,Scrapy 当之无愧是最流行最强大的框架了。本节我们就来初步认识一下 Scrapy,后面的课时我们会对 Scrapy 的功能模块进行详细介绍。 Scrapy 介绍 Scrapy 是一个基于 Twisted 的异步处理框架,是纯 Py
Read more »

资料 52讲轻松搞定网络爬虫 智能化解析是怎样的技术 我们知道,爬虫是帮助我们快速获取有效信息的。然而在做爬虫的过程中,我们会发现解析是件麻烦事。 比如一篇新闻吧,链接是:https://news.ifeng.com/c/7kQcQG2peWU,页面预览图如下: 我们需要从页面中提取出标题、发布人、发布时间、发布内容、图片等内容。一般情况下我们需要怎么办?答案是写规则。 那么规则都有什么呢?比如正则、CSS 选择器、XPath。我们需要对标题、发布时间、来源等内容做规则匹配,更有甚者需要正则表达式来辅助。我们可能需要用 re、BeautifulSoup、PyQuery 等库来实现内
Read more »

资料 52讲轻松搞定网络爬虫 App爬虫是怎么着情况 前面我们介绍的都是爬取 Web 网页的内容。随着移动互联网的发展,越来越多的企业并没有提供 Web 网页端的服务,而是直接开发了 App,更多更全的信息都是通过 App 来展示的。那么针对 App 我们可以爬取吗?当然可以。 我们知道 Web 站点有多种渲染和反爬方式,渲染分为服务端渲染和客户端渲染;反爬也是多种多样,如请求头验证、WebDriver 限制、验证码、字体反爬、封禁 IP、账号验证等等,综合来看 Web 端的反爬虫方案也是多种多样。 但 App 的情况略有不同,一般来说,App 的数据通信大都需要依赖独立的服务器,比如请
Read more »

资料 52讲轻松搞定网络爬虫 Ajax的原理和解析 当我们在用 requests 抓取页面的时候,得到的结果可能会和在浏览器中看到的不一样:在浏览器中正常显示的页面数据,使用 requests 却没有得到结果。这是因为 requests 获取的都是原始 HTML 文档,而浏览器中的页面则是经过 JavaScript 数据处理后生成的结果。这些数据的来源有多种,可能是通过 Ajax 加载的,可能是包含在 HTML 文档中的,也可能是经过 JavaScript 和特定算法计算后生成的。 对于第 1 种情况,数据加载是一种异步加载方式,原始页面不会包含某些数据,只有在加载完后,才会向服务器请求某
Read more »