从这里开始
指南
▼
▲
Persistence
Spring持久化指南
REST
使用Spring构建REST API指南
Security
Spring Security指南
关于
English
分类: Ml
>> 开源AI引擎
>> Scikit-Learn和TensorFlow的区别
>> 特征与标签的区别
>> 什么是TinyML?
>> 如何为SVM选择核函数类型?
>> K-均值算法的缺点
>> 机器学习:分析学习
>> 机器学习中的特征选择
>> 什么是数据湖?
>> Sklearn.pipeline.Pipeline究竟是什么?
>> 从RNN到Transformer
>> Transformer的碳足迹是什么,如何减少它?
>> 值迭代 vs. Q学习
>> 如何在神经网络中使用K折交叉验证?
>> 大型语言模型中的幻觉:原因、挑战和缓解
>> 径向基函数
>> 如何在TensorFlow和Keras中使用学习率预热?
>> 处理随机森林中的过拟合
>> 二元分类器的概率校准
>> Luong注意力和Bahdanau注意力的区别
>> 铰链损失和逻辑损失的区别
>> One-Hot编码解释
>> 概率:联合vs边缘vs条件
>> 组合优化
>> 为什么AI不能说每种语言?
>> 神经网络权重衰减和学习率的区别
>> 机器学习中的Bagging、Boosting和Stacking
>> NER 命名实体识别
>> 如何在scikit-learn中进行特征选择?
>> 机器学习:主动学习
>> 什么是自回归模型?
>> 如何在TensorFlow中使用噪声对比估计损失?
>> 如何计算分类器的VC维?
>> 训练过程中NaN错误的常见原因
>> 强化学习中的值迭代与策略迭代
>> 什么是方差比例?
>> 监督学习、半监督学习、无监督学习和强化学习简介
>> 特征缩放
>> 数据集分割前后的数据归一化
>> 如何计算两个文本文档之间的相似度?
>> 神经网络中的偏置
>> 卷积神经网络简介
>> 机器学习中的学习曲线是什么?
>> 支持向量机(SVM)
>> SVM vs 神经网络
>> 强化学习中的策略是什么?
>> 多类分类的F-1分数
>> 分类和聚类的区别
>> 神经网络架构:选择隐藏层数量和大小的标准
>> 神经网络相对于SVM的优缺点
>> 什么是交叉熵?
>> 使用神经网络的强化学习
>> 使用支持向量机进行多类分类
>> 神经网络权重的随机初始化
>> 神经网络中的周期(Epoch)
>> 解决K臂赌博机问题
>> 自然语言处理中的编码器-解码器模型
>> 将数据集分割为训练集和测试集
>> 机器学习模型中损失和准确率的解释
>> 弱监督学习
>> 逻辑回归中的梯度下降方程
>> 字符串相似度度量:基于标记的方法
>> 规范化表格特征
>> 使用Word2Vec进行主题建模
>> 丑小鸭定理
>> 如何提高朴素贝叶斯分类的性能?
>> 字符串相似度度量:基于序列的方法
>> 词嵌入:CBOW与Skip-Gram的比较
>> 线性回归中的归一化与标准化
>> 为什么SVM需要特征缩放?
>> 两个短语的语义相似性
>> 生成式vs判别式算法
>> Transformer文本嵌入
>> 开源神经网络库
>> SVM中准确性和支持向量数量之间的权衡
>> SVM中使用硬间隔vs软间隔
>> 状态机:组件、表示和应用
>> k近邻和高维数据
>> LL vs LR解析
>> 如何创建智能聊天机器人?
>> 时间序列中的模式识别
>> 期望最大化(EM)技术的直观解释
>> 为什么小批量大小比单个"批量"包含所有训练数据更好
>> 文本分类的特征选择和降维
>> Q学习与动态规划的比较
>> 如何从词向量获取句子向量
>> 如何计算线性回归中的正则化参数
>> "20个问题"AI算法是如何工作的?
>> 机器学习中的欠拟合和过拟合
>> 选择学习率
>> 异常值检测和处理
>> 机器学习中的分层抽样
>> 马尔可夫链聊天机器人是如何工作的?
>> 主题建模中何时认为连贯性分数好或坏?
>> 机器学习中的偏见
>> 贝叶斯网络
>> 机器学习中的准确率与AUC比较
>> 决策树与朴素贝叶斯分类器的比较
>> 集成学习
>> 马尔可夫决策过程:值迭代是如何工作的?
>> 机器学习中的漂移、异常和新颖性
>> Word2vec词嵌入操作:添加、连接还是平均词向量?
>> 学习率与批量大小的关系
>> 机器学习中的特征、参数和类别
>> 双向和单向LSTM的区别
>> 使用GAN进行数据增强
>> 随机森林中树的深度和数量的影响
>> 神经网络中的线性可分数据
>> SGD和反向传播的区别
>> Q学习 vs. SARSA
>> 机器学习:训练、验证和测试
>> 使用K均值算法用于分类
>> 生成对抗网络简介
>> 机器学习中的信息增益
>> 图像处理:遮挡
>> 图像比较算法
>> 机器学习中核函数的直观理解
>> 机器学习的基本概念
>> 梯度提升树 vs. 随机森林
>> 对比学习简介
>> 激活函数:Sigmoid vs Tanh
>> 成本函数、损失函数和目标函数之间的区别
>> 深度学习中的潜在空间
>> 自监督学习简介
>> 人工智能、机器学习、统计学和数据挖掘之间的区别是什么?
>> 机器学习中的归纳偏置是什么?
>> 决策树 vs. 随机森林
>> 监督学习和无监督学习的真实生活例子
>> 神经网络中的隐藏层
>> 目标检测中的平均精度均值
>> 神经网络中的"瓶颈"是什么?
>> 自然语言处理中的循环神经网络与递归神经网络
>> 比较朴素贝叶斯和SVM用于文本分类
>> 离线策略与在线策略强化学习
>> 交叉验证:K折与留一法
>> 反向传播和前馈网络的区别
>> 缺失数据和稀疏数据的区别
>> 决策树中的节点不纯度
>> 轮廓图
>> 机器学习:什么是消融研究?
>> 尺度不变特征变换
>> 神经网络:卷积层和全连接层的区别
>> 使用威胁空间搜索赢得五子棋
>> 神经网络:什么是权重衰减损失?
>> 如何使用Gabor滤波器为机器学习生成特征
>> 神经网络中的微调是什么?
>> 数据增强
>> 机器学习中的特征重要性是什么?
>> 什么是单类SVM,它是如何工作的?
>> 什么是基于内容的图像检索?
>> 神经网络中的骨干网络是什么意思?
>> 什么是没有免费午餐定理?
>> 为什么使用代理损失
>> 什么是受限玻尔兹曼机?
>> 机器学习:灵活和不灵活的模型
>> 机器学习:如何格式化训练用图像
>> 图注意力网络
>> 参数模型和非参数模型的区别
>> 什么是独立成分分析(ICA)?
>> 强化学习和最优控制的区别
>> 硬投票vs软投票分类器
>> PAC学习理论真正意味着什么?
>> ADAM优化器
>> 什么是信用分配问题?
>> 词嵌入的维度
>> 神经网络:池化层
>> 三元组损失简介
>> 学习率预热是什么意思?
>> 什么是神经风格迁移?
>> 什么是下游任务?
>> Q学习 vs. 深度Q学习 vs. 深度Q网络
>> 懒惰学习 vs. 急切学习
>> 神经网络中密集和稀疏的概念
>> 如何分析损失vs轮次图?
>> 自组织映射如何工作?
>> Softmax中的温度是什么以及为什么使用它?
>> 支持向量机中的C参数
>> 脉冲神经网络简介
>> 高斯混合模型
>> 如何进行早停?
>> 统计学在机器学习中的重要性
>> 数据质量解释
>> 用于聚类的高斯混合模型
>> 核主成分分析相比标准主成分分析有什么优势?
>> 神经网络:步进卷积
>> 什么是霍普菲尔德网络?
>> 交叉熵和KL散度有什么区别?
>> 如何在逻辑回归中处理缺失数据?
>> 什么是噪声对比估计损失?
>> GELU激活函数解释
>> TensorFlow中的Maxout实现
>> 我们应该在高维空间中使用欧几里得度量吗?
>> 如何在TensorFlow和PyTorch中为图像和文本处理实现填充?
>> 什么是检索增强生成(RAG)?
>> 如何执行线性判别分析?
>> 焦点损失简介
>> 强化学习中的贝尔曼算子是什么?
>> 情感分析的训练数据
>> 如何使用SMOTE处理不平衡数据?
>> DBSCAN聚类:它是如何工作的?
>> 神经网络输入的归一化
>> 偏差和误差的区别
>> 什么是不可训练参数?
>> 自动机器学习解释
>> 敏感性和特异性
>> 随机样本一致性算法解释
>> 什么是回归器?
>> 多层感知器与深度神经网络的比较
>> 遗传算法的实际应用
>> 变分自编码器中的重参数化技巧
>> 自编码器解释
>> 随机森林 vs. 极随机树
>> 如何计算CNN的感受野大小
>> 实例归一化 vs 批量归一化
>> 线性回归 vs. 逻辑回归
>> 什么是联邦学习?
>> 神经网络:二进制 vs. 离散 vs. 连续输入
>> 在线学习 vs. 离线学习
>> ε-贪心Q学习
>> 共现矩阵及其在自然语言处理中的应用
>> 如何将文本序列转换为向量
>> 0-1损失函数解释
>> 梯度下降、随机梯度下降和小批量梯度下降的区别
>> 预训练神经网络是什么意思?
>> 稀疏编码神经网络
>> 分类模型评估简介
>> Top-N 准确率指标