XGBoost使用
1. 引言 在机器学习领域,梯度提升树(Gradient Boosting Tree)是一种非常强大的集成学习方法,而XGBoost(eXtreme Gradient Boosting)是梯度提升树的高效实现,因其速度快、性能优异而广受欢迎,广泛应用于分类、回归、排序等任务。 ...
1. 引言 在机器学习领域,梯度提升树(Gradient Boosting Tree)是一种非常强大的集成学习方法,而XGBoost(eXtreme Gradient Boosting)是梯度提升树的高效实现,因其速度快、性能优异而广受欢迎,广泛应用于分类、回归、排序等任务。 ...
基础 定义 提示工程PE(Prompt Engineering)是利用自然语言处理技术,通过优化提示词(Prompt),来提高模型性能和效果的一种技术。 ...
基础 OpenManus是Manus的一套开源实现。 Hello, Manus 模型配置, 在目录config下面复制config.example.toml改名为config.toml, 然后更新模型配置信息。以使用qwen模型为例: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 # Global LLM configuration [llm] model = "qwq-plus" # The LLM model to use base_url = "https://dashscope.aliyuncs.com/compatible-mode/v1" # API endpoint URL api_key = "sk-xxxxx" # Your API key max_tokens = 8192 # Maximum number of tokens in the response temperature = 0.0 # Controls randomness # Optional configuration for specific LLM models [llm.vision] model = "qwen-vl-max" # The vision model to use base_url = "https://dashscope.aliyuncs.com/compatible-mode/v1" # API endpoint URL for vision model api_key = "sk-xxxx" # Your API key for vision model max_tokens = 8192 # Maximum number of tokens in the response temperature = 0.0 # Controls randomness for vision model 结合MCP OpenManus MCP 架构设计 MCP 主机及客户端(MCPAgent) OpenManus 中 MCP 主机及客户端相关的实现位于app/agent/mcp_agent.py和app/tool/mcp.py ...
基础 OpenAI Python库是OpenAI官方提供的开发工具包,旨在帮助开发者快速集成GPT系列模型、DALL·E图像生成等AI能力。截至2025年3月,该库已迭代至v2.x版本,支持同步/异步调用、流式响应等特性,并新增了Agent开发工具链。 ...
基础 MCP(Model Context Protocol): 是Anthropic于2024年11月推出的开放的模型上下文协议,标准化了应用向AI Agent提供上下文的方式,可以视作AI应用的USB-C接口,提供了一种将AI Agent连接到不同数据源和工具的标准化方式。 ...
概述 本文为深度学习的入门实践记录,对应源代码放在工程 基础 数据操作 参考 动手学深度学习
线性代数 线性代数是机器学习的数学基础,为数据表示和算法实现提供了核心工具。深入理解线性代数原理对于掌握现代机器学习算法至关重要。 核心概念与数学原理 向量空间与线性变换 定义:向量空间V是满足以下公理的集合,配备加法和标量乘法运算: ...
基础 背景 实现手写或者打印格式的tex公式识别。 实现原理 代码说明 参考 Pytorch-Handwritten-Mathematical-Expression-Recognition https://simpletex.cn/
NLP基础 自然语言处理(Natural Language Processing,NLP)是一门借助计算机技术研究人类语言的科学。 NLP发展史 1970年代以前: 基于文法规则,问题:自然语言是上下文有关文法,规则无法穷举 1970年代 ~ 2006年: 基于数学模型和统计方法的自然语言处理方法开始兴起, 如“通信系统加隐马尔可夫模型”,有向图 2006年 ~ 2017年: 辛顿(Hinton)证明深度信念网络(Deep Belief Networks,DBN)可以通过逐层预训练策略有效地进行训练, 深度学习方法兴起(CNN, LSTM) 2017年 ~ 至今: Google 公司提出了 Attention 注意力模型,Transformer结构几乎一统江湖 统计语言模型发展史 Transformers模型 随着BERT和GPT的大火,Transformer 结构已经替代了循环神经网络 (RNN) 和卷积神经网络 (CNN),成为了当前 NLP 模型的标配。 ...