推荐系统八股

1、DIN的注意力机制和transformer的注意力机制有啥区别 注意力范围:DIN是局部注意力,只计算了候选物品和历史行为的一个相关性,但是Transformer是全局计算了 计算方式不一样:DIN的话是将两个向量拼接或者相减,然后通过全连接层,Transformer是通过计算QKV矩阵,然后点


推荐系统指标:

召回阶段 命中率 预测准确的正样本数 / 所有预测为正样本的数量 召回率 预测准确的正样本数 / 所有正样本数 排序阶段 AUC 从物理意义来说,ROC曲线的面经,ROC曲线即横坐标是假阳率,纵坐标是


LeetCode152:乘积最大子数组

题目描述: 方法1:动态规划,dp_max与dp_min 分别表示遍历 i 时,以 i 结尾的子数组最大乘积和最小乘积 class Solution { public: int maxProduct(vector<int>& nums) { int dp_max = nums


GRU

对LSTM的一个改进,提高计算效率 将LSTM的输入门、遗忘门、输出门,变为了两个门 输入门表示需要记住当前的多少信息,遗忘门表示需要遗忘过去的多少信息,这两个会合并为一个细胞状态,输出门就表示需要输出多少合并后的记忆 GRU将原本的输入门和遗忘门变成了一个更新门,然后将细胞状态和隐藏状态合并了,重


DIN和DIEN

两个模型都是用来预测CTR点击率的 点击率是0-1的 在一定程度上都是在时间序列数据基础上进行建模 DIN 在建模中引入了attention机制,然后引入了小批量自适应正则化和Dice激活函数


LeetCode48:旋转图像

题目描述: 方法1:用一个辅助矩阵来存旋转后的矩阵,然后把辅助矩阵赋值给原矩阵(矩阵第一列是旋转过的第一行,第二列是第二行) class Solution { public: void rotate(vector<vector<int>>& matrix) { int n =


大语言模型八股

1、LoRA微调的矩阵初始化怎么初始化 LoRA微调使用低秩分解,将参数矩阵的变化量,分解成两个更小的矩阵B和A 其中B初始化为0,A初始化为高斯分布 B初始化为0,是为了保证训练刚开始的时候,


SAC

SAC是一种actor-critic架构为基础的策略学习的强化学习 并不是基于策略梯度来更新策略网络,而是通过最大化奖励和熵来更新策略网络,是一种off-policy的强化学习 引入了最大熵和一个可学习的调节参数alpha来平衡探索与利用,设定一个熵阈值,如果小于阈值,增大alpha,提高探索 引入


python代码题

python脚本,读取命令行参数并打开txt文件 import sys def read_file(path): try: with open(path,'r') as file: content = file.read() return content except File


LeetCode75:颜色分类

题目描述: 方法1:单指针,两次循环,第一次把0移到前面,第二次把1移到前面 class Solution { public: void sortColors(vector<int>& nums) { int n = nums.size(); int pos