当前位置: 首页 > ops >正文

推荐算法八股

跑路了,暑期0offer,华为主管面挂了,真幽默,性格测评就挂了居然给我一路放到主管面,科大迅飞太嚣张,直接跟人说后面要面华为,元戎启行,学了C++后python完全忘了怎么写,挺尴尬的,一面挂,想着做视觉后面也找不到工作,跑路,科大和元戎的面试官都挺好的,华为技术面感觉面完啥也没学到,再见,计算机视觉

1.求x的平方根,梯度下降法

def gradient_descent_sqrt(a, eta=0.001, max_iter=1000, tol=1e-6):x = a / 2  # 初始值for _ in range(max_iter):grad = 4 * x * (x**2 - a)  # 计算梯度x = x - eta * grad  # 更新if abs(grad) < tol:  # 停止条件breakreturn round(x, 3)a = 9
result = gradient_descent_sqrt(a)
print("Gradient Descent Result:", result)

牛顿法

def newton_method_sqrt(a, max_iter=1000, tol=1e-6):x = a / 2  # 初始值for _ in range(max_iter):x_new = 0.5 * (x + a / x)  # 牛顿法更新公式if abs(x_new - x) < tol:  # 停止条件breakx = x_newreturn round(x, 3)result = newton_method_sqrt(a)
print("Newton's Method Result:", result)

2.xgboost,lightgbm,catboost,直接看链接

详解 CatBoost 原理-CSDN博客文章浏览阅读1.7w次,点赞36次,收藏129次。详解 CatBoost 原理集成学习的两大准则:基学习器的准确性和多样性。算法:串行的Boosting和并行的Bagging,前者通过错判训练样本重新赋权来重复训练,来提高基学习器的准确性,降低偏差!后者通过采样方法,训练出多样性的基学习器,降低方差。1.catboost 的优缺点性能卓越:在性能方面可以匹敌任何先进的机器学习算法鲁棒性/强健性:它减少了对很多超参数调优的需求,并降低了过度拟合的机会,这也使得模型变得更加具有通用性易于使用:提供与 scikit 集成的 Python 接口,以及_catboost https://blog.csdn.net/weixin_49708196/article/details/124018649机器学习—LightGBM的原理、优化以及优缺点_lightgbm优缺点-CSDN博客文章浏览阅读2.4w次,点赞78次,收藏225次。LightGBM是为解决GBDT在海量数据中的效率问题而提出的,通过直方图算法、单边梯度采样、互斥特征捆绑和带深度限制的Leaf-wise算法实现速度和内存的优化。与XGBoost相比,LightGBM在内存占用和计算速度上具有显著优势,同时支持类别特征,并行计算和缓存优化。然而,Leaf-wise策略可能导致过拟合,需要设置最大深度限制。 https://blog.csdn.net/weixin_46649052/article/details/119604545【机器学习】XGBoost数学原理及详细实现过程_xgboost的数学原理-CSDN博客文章浏览阅读3.8k次,点赞6次,收藏42次。XGBoost(Extreme Gradient Boosting)是一种高效的梯度提升决策树算法,与lightgbm是目前表格型数据竞赛最主流的树模型。它在原有的GBDT(Gradient Boosting Decision Tree)基础上进行了改进,使得模型效果得到大大提升。XGBoost是由多棵CART(Classification And Regression Tree)组成,因此它不仅可以处理分类回归等问题。_xgboost的数学原理 https://blog.csdn.net/qq_70699891/article/details/1342570833.TPE算法(贝叶斯优化)

TPE算法:贝叶斯优化中的高效参数搜索,-CSDN博客文章浏览阅读2.4k次,点赞11次,收藏17次。TPE算法的核心思想是使用两个不同的概率密度函数来建模参数的条件概率分布:一个用于建模表现好的参数配置的概率密度函数(Exploitation),另一个用于建模未知的参数配置的概率密度函数(Exploration)。TPE算法通过对搜索空间的建模,采用概率密度估计的方式,有选择地在参数空间中采样,从而在较短的时间内找到性能较好的参数配置。该模型基于已知性能好的参数配置,通过建模条件概率分布,产生一个新的参数配置,以期望获得更好的性能。对生成的候选参数配置进行评估,得到它们的性能。_tpe算法 https://blog.csdn.net/weixin_44943389/article/details/135089325?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522ee440a94fc38941acf6e98bc0b6dc265%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=ee440a94fc38941acf6e98bc0b6dc265&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduend~default-1-135089325-null-null.142^v102^pc_search_result_base8&utm_term=TPE%E7%AE%97%E6%B3%95&spm=1018.2226.3001.41874.LR算法

【机器学习算法笔记系列】逻辑回归(LR)算法详解和实战_lr算法-CSDN博客文章浏览阅读1.2w次,点赞12次,收藏86次。逻辑回归(LR)算法概述逻辑回归(Logistic Regression)是用于处理因变量为分类变量的回归问题,常见的是二分类或二项分布问题,也可以处理多分类问题,它实际上是属于一种分类方法。逻辑回归算法原理预测函数和决策边界逻辑回归的预测函数可以表示为:举一个例子,假设我们有许多样本,并在图中表示出来了,并且假设我们已经通过某种方法求出了LR模型的参数(如下图):这时,直线上方所..._lr算法 https://blog.csdn.net/Mr_Robert/article/details/88888973?ops_request_misc=%257B%2522request%255Fid%2522%253A%252243a1836de281e706bbe49a6ca060e987%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=43a1836de281e706bbe49a6ca060e987&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduend~default-2-88888973-null-null.142^v102^pc_search_result_base8&utm_term=LR%E7%AE%97%E6%B3%95&spm=1018.2226.3001.4187

5.Wide & Deep、DeepFM

Wide & Deep、DeepFM系列算法原理与优缺点对比_wide&deep-CSDN博客文章浏览阅读1.1k次。一、Wide & Deep模型Wide & Deep Learning 模型的核心思想是结合广义线性模型的记忆能力(memorization)和深度前馈神经网络模型的泛化能力(generalization)。利用广义线性模型从历史数据中学习特征相关性,利用深度前馈神经网络揭示隐式特征之间的相互作用。在训练过程中同时优化 2 个模型的参数,从而达到整体模型的预测能力最优。Wide & Deep模型结构如下图,左边是wide部分,右边是deep部分。关于深度前馈网络的基本原理可以参考这里。_wide&deep https://blog.csdn.net/asd8705/article/details/140253180?ops_request_misc=%257B%2522request%255Fid%2522%253A%25223f36b251e7ad1bfc6de5e2b7ae5b7195%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=3f36b251e7ad1bfc6de5e2b7ae5b7195&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduend~default-1-140253180-null-null.142^v102^pc_search_result_base8&utm_term=Wide%26Deep&spm=1018.2226.3001.41876.推荐系统中的一些带bias的场景怎么debias

推荐系统中的偏置问题-bias和debias_debias样本选则性偏差-CSDN博客文章浏览阅读1.5k次,点赞25次,收藏20次。推荐系统中存在很多偏差,如选择偏差、位置偏差、曝光偏差和流行度偏差等_debias样本选则性偏差 https://blog.csdn.net/jzwei023/article/details/1352190697.如何解决跷跷板现象

推荐系统中的多目标建模与优化-CSDN博客文章浏览阅读3.1k次,点赞2次,收藏7次。多目标建模已经成为当前推荐系统中的标配,在多目标建模过程中,需要考虑多个目标之间的相互关系,以选择合适的多目标建模方法,同时,在多目标的损失函数的设计上,也存在很多的优化方案,需要根据具体的应用场景选择合适的损失函数,以达到对具体任务的优化。_多目标建模 https://blog.csdn.net/google19890102/article/details/1286579428.可参考

汇总版!美团搜索推荐算法面试题10道(含答案)_美团面试算法题-CSDN博客文章浏览阅读2.9k次,点赞10次,收藏26次。推荐系统的流程主要包含一下几个阶段。会根据内容特性提前建立若干种类型的索引。用户请求时会从各种索引种取出千/万 条item。针对这上千/万条item,进行第一遍打分,再筛选出几百条或者千条。这个阶段的排序模型一般都比较简单,能够过滤掉一些与用户兴趣明显不相关的。得到几百条item后,精排阶段会建立相对精细的模型,根据用户的画像,偏好,上下文,结合业务目标进行排序。一般精排后返回50-100条给到engine侧。engine 侧拿到精排的50条item。_美团面试算法题 https://blog.csdn.net/m0_59596990/article/details/1363321209.一个比较全面的总结

算法工程师面试八股(搜广推方向)_搜广推八股-CSDN博客文章浏览阅读9.6k次,点赞32次,收藏192次。文章目录机器学习线性和逻辑回归模型逻辑回归二分类和多分类的损失函数二分类为什么用交叉熵损失而不用MSE损失?偏差与方差Layer Normalization 和 Batch NormalizationSVM数据不均衡特征选择排序模型树模型进行特征工程的原因GBDTLR和GBDTRF和GBDTXGBoost二阶泰勒展开优势为什么快防止过拟合处理缺失值树停止生长条件处理不平衡数据树剪枝选择最佳分裂点Scalable性特征重要性调参步骤过拟合解决方案对缺失值不敏感XGBoost和RF单棵树哪个更深?XGBoost_搜广推八股 https://blog.csdn.net/keiven_/article/details/134758737?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522491f88319611f6bedf71b305436a4af5%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.%2522%257D&request_id=491f88319611f6bedf71b305436a4af5&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~first_rank_ecpm_v1~rank_v31_ecpm-10-134758737-null-null.142^v102^pc_search_result_base8&utm_term=%E6%8E%A8%E8%8D%90%E7%AE%97%E6%B3%95%E5%85%AB%E8%82%A1&spm=1018.2226.3001.418710.经典transformer

算法八股整理【Transformer】_transformer八股-CSDN博客文章浏览阅读2k次,点赞21次,收藏39次。A: 帮助模型在处理序列数据的时候,能够关注到输入序列中最重要的部分,,从而实现对信息的有效筛选和整合。注意力机制希望打破长序列信息瓶颈,解决长序列信息丢失的问题。朴素的Seq2Seq模型中,由于用Encoder RNN的最后一个神经元的隐状态作为 Decoder RNN 的隐状态,导致Encoder 的最后一个神经元的隐状态Context Vector 承载源句子的所有信息,成为整个模型的“信息”瓶颈。_transformer八股 https://blog.csdn.net/ZLInbao/article/details/141165149?ops_request_misc=&request_id=&biz_id=102&utm_term=%E6%8E%A8%E8%8D%90%E7%AE%97%E6%B3%95%E5%85%AB%E8%82%A1&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-3-141165149.142^v102^pc_search_result_base8&spm=1018.2226.3001.418711.做一个简单的阿里的新闻推荐,做完直接开始投简历,转换策略,视觉还是算了,就算再找到一段视觉的实习多半秋招也找不到工作。

    现在两kaggle铜牌,全计算机视觉,周四再结束一个看看有没有一块新的,给老子抖个银牌啊喂

http://www.xdnf.cn/news/10807.html

相关文章:

  • STM32外部中断(EXTI)以及旋转编码器的简介
  • 【深度学习-Day 22】框架入门:告别数据瓶颈 - 掌握PyTorch Dataset、DataLoader与TensorFlow tf.data实战
  • MongoTemplate常用api学习
  • [手写系列]从0到1开发并上线Edge浏览器插件
  • AJ-Report
  • 深拷贝与浅拷贝的区别?如何手写实现一个深拷贝?
  • 英语写作中“不少于(小于)”no less than替代no fewer than的用法
  • 【文献精读】Explaining grokking through circuit efficiency
  • virtualbox安装扩展工具以支持共享文件夹
  • Foundation Models for Generalist Geospatial Artificial Intelligence论文阅读
  • RTOS:初始化新任务(含源码复杂点解读)
  • MyBatis相关面试题
  • dvwa7——SQL Injection
  • CentOS 7镜像源替换
  • 豆包的图片生成功能基于其底层AI模型,结合了多模态大模型和图像生成技术,其核心逻辑主要包括以下几个部分:
  • mac下通过anaconda安装Python
  • 你的台式机PCIe插槽到底是几条lane
  • 电脑硬盘分几个区好
  • 50天50个小项目 (Vue3 + Tailwindcss V4) ✨ | Dad Jokes(冷笑话卡片)
  • VueScan:全能扫描,高清输出
  • 《Linux C编程实战》笔记:多路复用
  • vue3:Table组件动态的字段(列)权限、显示隐藏和左侧固定
  • Oracle中的循环——FOR循环、WHILE循环和LOOP循环
  • 免费批量文件重命名软件
  • Spring AI Alibaba + Nacos 动态 MCP Server 代理方案
  • 重新审视自回归语言模型的知识蒸馏
  • 总览四级考试
  • 用AI(Deepseek)做了配色网站-功能介绍【欢迎体验】
  • 电子电路:全面深入了解晶振的定义、作用及应用
  • linux安全加固(非常详细)