Baumer高防护相机如何通过Tiny-YOLO单类模型实现人体跌倒检测与跟踪(C#代码UI界面版)

在这里插入图片描述

《------往期经典推荐------》

AI应用软件开发实战专栏【链接】

序号项目名称项目名称
11.工业相机 + YOLOv8 实现人物检测识别:(C#代码,UI界面版)2.工业相机 + YOLOv8 实现PCB的缺陷检测:(C#代码,UI界面版)
23.工业相机 + YOLOv8 实现动物分类识别:(C#代码,UI界面版)4.工业相机 + YOLOv8 实现螺母螺丝的分类检测:(C#代码,UI界面版)
35.工业相机 + YOLOv8 实现人脸识别检测:(C#代码,UI界面版)6.工业相机 + YOLOv8 实现睡岗检测:(C#代码,UI界面版)
47.工业相机 + YOLOv8 实现打架检测检测:(C#代码,UI界面版)8.工业相机 + YOLOv8 实现水下鱼类识别:(C#代码,UI界面版)
59.工业相机 + YOLOv8 实现实现持械检测识别:(C#代码,UI界面版)10.工业相机 + YOLOv8实现工人安全装备(安全帽、手套、马甲等)检测识别:(C#代码,UI界面版)
611.工业相机 + YOLOv8 实现卫星图像识别:(C#代码,UI界面版)12.工业相机 + YOLOv8 实现火灾检测:(C#代码,UI界面版)
713.工业相机 + YOLOv8实现无人机检测识别:(C#代码,UI界面版)14.工业相机 + YOLOv8 实现沙滩小人检测识别:(C#代码,UI界面版)
815.工业相机 + YOLOv8 实现轮船检测识别:(C#代码,UI界面版)16.工业相机 + YOLOv8 实现PCB上二维码检测识别:(C#代码,UI界面版)
917.工业相机 + YOLOv8 实现标签条码一维码的检测:(C#代码,UI界面版)18.工业相机 + YOLOv8 实现不同水果的检测识别:(C#代码,UI界面版)
1019.工业相机 + YOLOv8 实现面部口罩的检测识别:(C#代码,UI界面版)20.工业相机 + YOLOv8 实现电池的检测识别:(C#代码,UI界面版)
1019.工业相机 + YOLOv8 实现面部口罩的检测识别:(C#代码,UI界面版)20.工业相机 + YOLOv8 实现电池的检测识别:(C#代码,UI界面版)
1121.工业相机 + YOLOv8 实现各种食物的类型检测识别:(C#代码,UI界面版)22.工业相机 + YOLOv8 实现裂缝的检测识别:(C#代码,UI界面版)
1223工业相机 + YOLOv8 实现汽车牌照的位置识别:(C#代码,UI界面版)24.工业相机 + YOLOv8 实现围栏羊驼的检测识别:(C#代码,UI界面版)
1325.工业相机 + YOLOv8 实现道路汽车的检测识别:(C#代码,UI界面版)26.工业相机 + YOLOv8 实现道路上头盔的检测识别:(C#代码,UI界面版)
1427.工业相机 + YOLOv8实现道路车辆事故的检测识别:(C#代码,UI界面版)28.工业相机 + YOLOv8 实现实时食物水果的检测识别:(C#代码,UI界面版)
1529.工业相机 + YOLOv8 实现各类垃圾的分类检测识别:(C#代码,UI界面版)30.工业相机 + YOLOv8 实现路口车辆速度的追踪识别:(C#代码,UI界面版)

Baumer高防护相机如何通过Tiny-YOLO单类模型实现人体跌倒检测与跟踪(C#代码UI界面版)

  • AI应用软件开发实战专栏【链接】
  • 工业相机使用YoloV8模型实现人体跌倒检测与跟踪
  • 工业相机通过YoloV8模型实现人体跌倒检测与跟踪的技术背景
  • 在相机SDK中获取图像转换图像的代码分析
    • 工业相机图像转换Bitmap图像格式和Mat图像重要核心代码
    • 本地文件图像转换Bitmap图像格式和Mat图像重要核心代码
    • Mat图像导入YoloV8模型重要核心代码
    • 代码实现演示(实现人体跌倒检测与跟踪)
  • 源码下载链接
  • 工业相机通过YoloV8模型实现人体跌倒检测与跟踪的行业应用
  • 关键技术细节

工业相机使用YoloV8模型实现人体跌倒检测与跟踪

本项目集成了Tiny-YOLO 检测模型 与 C#图形界面工具,实现了包括图片、文件夹、视频与摄像头等多种输入方式的实现人体跌倒检测与跟踪的检测识别。

现在支持7种动作:站立、行走、坐下、躺下、站起来、坐下、跌倒。

Baumer工业相机堡盟相机是一种高性能、高质量的工业相机,可用于各种应用场景,如物体检测、计数和识别、运动分析和图像处理。

Baumer的万兆网相机拥有出色的图像处理性能,可以实时传输高分辨率图像。此外,该相机还具有快速数据传输、低功耗、易于集成以及高度可扩展性等特点。

Baumer工业相机由于其性能和质量的优越和稳定,常用于高速同步采集领域,通常使用各种图像算法来提高其捕获的图像的质量。

本文以Baumer工业相机作为案例进行演示,实现将工业相机的图像或者本地图像夹导入Yolo模型从而实现人体跌倒检测与跟踪等功能。

工业相机通过YoloV8模型实现人体跌倒检测与跟踪的技术背景

本文通过C#中实现一个简单的UI界面,用于将YoloV8模型实现人体跌倒检测与跟踪

用户可以通过该界面执行以下操作:

  1. 转换相机图像为Mat图像:通过YoloV8模型实现人体跌倒检测与跟踪

  2. 转换本地图像为mat图像:通过YoloV8模型实现人体跌倒检测与跟踪

通过这个UI界面,用户能够在实时应用机器视觉数据处理时快速有效地进行操作,无需深入了解图像数据的底层处理过程。这个简单的介绍旨在为开发人员提供一个明确的方向,以便开始构建此类应用程序,并且该程序主要用于演示目的。

在相机SDK中获取图像转换图像的代码分析

本文介绍使用Baumer工业相机,实现将图像转换为Bitmap图像,再转换Mat图像,导入到Yolo模型进行推理,输出实现人体跌倒检测与跟踪的结果。

工业相机图像转换Bitmap图像格式和Mat图像重要核心代码

//将相机内部图像内存数据转为bitmap数据
System.Drawing.Bitmap bitmap  = new System.Drawing.Bitmap((int)mBufferFilled.Width, (int)mBufferFilled.Height,(int)mBufferFilled.Width,System.Drawing.Imaging.PixelFormat.Format8bppIndexed, (IntPtr)((ulong)mBufferFilled.MemPtr + mBufferFilled.ImageOffset));#region//Mono图像数据转换。彩色图像数据转换于此不同
System.Drawing.Imaging.ColorPalette palette = bitmap.Palette;
int nColors = 256;
for (int ix = 0; ix < nColors; ix++)
{uint Alpha = 0xFF;uint Intensity = (uint)(ix * 0xFF / (nColors - 1));palette.Entries[ix] = System.Drawing.Color.FromArgb((int)Alpha, (int)Intensity,(int)Intensity, (int)Intensity);
}
bitmap.Palette = palette;
#endregionstring strtime = DateTime.Now.ToString("yyyyMMddhhmmssfff");
string saveimagepath = pImgFileDir + "\\" + strtime + ".brw";//使用Bitmap格式保存         
bitmap.Save(saveimagepath, System.Drawing.Imaging.ImageFormat.Bmp);  //用bitmap转换为mat
OpenCvSharp.Mat Matgray1 = OpenCvSharp.Extensions.BitmapConverter.ToMat(bitmap);

本地文件图像转换Bitmap图像格式和Mat图像重要核心代码

C#环境下代码如下所示:

if (imagePaths.Count() == 0)
{LoadImagePaths("test_img");
}string currentImagePath = imagePaths[currentImageIndex];// 显示到pictureBoxA
pictureBoxA.Image.Dispose(); // 释放上一张图片资源,避免内存泄漏
pictureBoxA.Image = new Bitmap(currentImagePath);
image_path = currentImagePath;currentImageIndex = (currentImageIndex + 1) % imagePaths.Count;OnNotifyShowRecieveMsg("检测中,请稍等……");
//textBox1.Text = "检测中,请稍等……";
//pictureBox2.Image = null;
Application.DoEvents();image = new Mat(image_path);float ratio = Math.Min(1.0f * inpHeight / image.Rows, 1.0f * inpWidth / image.Cols);
int neww = (int)(image.Cols * ratio);
int newh = (int)(image.Rows * ratio);Mat dstimg = new Mat();
Cv2.Resize(image, dstimg, new OpenCvSharp.Size(neww, newh));Cv2.CopyMakeBorder(dstimg, dstimg, 0, inpHeight - newh, 0, inpWidth - neww, BorderTypes.Constant);

Mat图像导入YoloV8模型重要核心代码

C#环境下代码如下所示:


// 定义 ONNX 模型的路径
string onnxModelPath = "Fall_detection.onnx";
// 定义输入图像的形状
OpenCvSharp.Size inputShape = new OpenCvSharp.Size(640, 640);
// 从 ONNX 模型文件加载网络
if(net==null)net = CvDnn.ReadNetFromOnnx(onnxModelPath);string[] modelClassify = {"drunk","stubbed toe","warking trip"};if (imagePaths.Count() == 0)
{LoadImagePaths("test_img");
}string currentImagePath = imagePaths[currentImageIndex];// 显示到pictureBoxA
pictureBoxA.Image.Dispose(); // 释放上一张图片资源,避免内存泄漏
pictureBoxA.Image = new Bitmap(currentImagePath);
image_path = currentImagePath;if (pictureBoxA.Image == null)
{return;
}
currentImageIndex = (currentImageIndex + 1) % imagePaths.Count;OnNotifyShowRecieveMsg("检测中,请稍等……");Application.DoEvents();image = new Mat(image_path);dt1 = DateTime.Now;
// 调用识别图像的函数,并传入图像路径、阈值、网络、输入形状和分类类别列表
//result_image = Recognize(image, 0.35, net, inputShape, modelClassify);
result_image = RecognizeMat(image, 0.35, net, inputShape, modelClassify);
// 获取计算结束时间
dt2 = DateTime.Now;
// 显示输出的图像
pictureBoxA.Image = new Bitmap(result_image.ToMemoryStream());// 显示推理耗时时间
OnNotifyShowRecieveMsg("推理耗时:" + (dt2 - dt1).TotalMilliseconds + "ms");
static Mat RecognizeMat(Mat imgInput, double threshold, Net net, OpenCvSharp.Size inputShape, string[] modelClassify)
{using (Mat img = imgInput){int inpHeight = inputShape.Height; // 输入图像的高度int inpWidth = inputShape.Width; // 输入图像的宽度// 对图像进行预处理,调整尺寸Mat image = img;float ratio = Math.Min(1.0f * inpHeight / image.Rows, 1.0f * inpWidth / image.Cols);int neww = (int)(image.Cols * ratio);int newh = (int)(image.Rows * ratio);//// 将图像调整为模型需要的大小//Mat dstimg = new Mat();//Cv2.Resize(image, dstimg, new OpenCvSharp.Size(neww, newh));//Cv2.CopyMakeBorder(dstimg, dstimg, 0, inpHeight - newh, 0, inpWidth - neww, BorderTypes.Constant);//Mat BN_image = CvDnn.BlobFromImage(dstimg); // 将调整后的图像转换为Blob格式//// 配置图片输入数据 // 将 blob 设置为网络的输入//net.SetInput(BN_image);//// 从图像生成用于网络输入的 blob//Mat blob = CvDnn.BlobFromImage(img, 1 / 255.0, inputShape, new Scalar(0, 0, 0), false);////Mat blob = CvDnn.BlobFromImage(img, 1.0 / 255.0, inputShape, new Scalar(0, 0, 0), true, false);// 将 blob 设置为网络的输入//net.SetInput(blob);//// 从图像生成用于网络输入的 blobMat img0 = img;Mat blob0 = CvDnn.BlobFromImage(img0, 1 / 255.0, new OpenCvSharp.Size(inputShape.Width, inputShape.Height), swapRB: true, crop: false);net.SetInput(blob0);// 执行前向传播获取输出Mat output = net.Forward();// 此处可能需要根据 C# 中 OpenCV 的特性来处理转置操作output = ReshapeAndTranspose(output);// 获取图像的行数(高度)int height = img.Height;// 获取图像的列数(宽度)int width = img.Width;// 计算宽度的缩放因子double xFactor = (double)width / inputShape.Width;// 计算高度的缩放因子double yFactor = (double)height / inputShape.Height;// 初始化分类类别、得分和检测框的列表List<string> classifys = new List<string>();List<float> scores = new List<float>();List<Rect> boxes = new List<Rect>();List<Double> maxVales = new List<Double>();List<OpenCvSharp.Point> maxloces = new List<OpenCvSharp.Point>();// 遍历输出的行for (int i = 0; i < output.Rows; i++){// 获取当前行的检测框数据using (Mat box = output.Row(i)){// 在框数据的特定范围中找到最小值、最大值及其位置OpenCvSharp.Point minloc, maxloc;double minVal, maxVal;// Mat classes_scores = box.ColRange(4, 5);//GetArray(i, 5, classes_scores);// double curmates0 = box.At<float>(0);double curmates1 = box.At<float>(4);int collength = box.Cols;int rowlength = box.Rows;Mat curmates = box.ColRange(4, box.Cols);//Cv2.MinMaxLoc(box.ColRange(4, box.Cols), out minVal, out maxVal, out minloc, out maxloc);Cv2.MinMaxLoc(box.ColRange(4, box.Cols), out minVal, out maxVal, out minloc, out maxloc);int classId = maxloc.Y;if (classId == 0){// 获取对应类别的得分                         float score = (float)maxVal;// 如果得分大于阈值if (score > threshold){// 将得分添加到得分列表scores.Add(score);// 将类别添加到类别列表classifys.Add(modelClassify[classId]);// 获取框的原始坐标float x = box.At<float>(0, 0);float y = box.At<float>(0, 1);float w = box.At<float>(0, 2);float h = box.At<float>(0, 3);// 计算调整后的坐标int xInt = (int)((x - 0.5 * w) * xFactor);int yInt = (int)((y - 0.5 * h) * yFactor);int wInt = (int)(w * xFactor);int hInt = (int)(h * yFactor);// 将调整后的框坐标添加到框列表boxes.Add(new Rect(xInt, yInt, wInt, hInt));}}}}// 执行非极大值抑制操作int[] indices;CvDnn.NMSBoxes(boxes, scores, 0.25f, 0.45f, out indices);// 遍历非极大值抑制操作后的索引foreach (int i in indices){// 获取对应的类别、得分和框string classify = classifys[i];float score = scores[i];Rect box = boxes[i];// 获取框的坐标和尺寸// 在图像上绘制矩形框Cv2.Rectangle(img, box, new Scalar(0, 255, 0), 3);// 生成类别和得分的标签文本string label = $"{classify}: {score:F2}";// 在图像上添加标签文本Cv2.PutText(img, label, new OpenCvSharp.Point(box.X, box.Y - 10), HersheyFonts.HersheySimplex, 0.5, new Scalar(0, 255, 0), 2);}// 将图像复制输出返回Mat result_image0 = img.Clone();return result_image0;// 将处理后的图像保存为文件// Cv2.ImWrite("result.jpg", img);}
}

下面是detection.py的python代码:

import os
import cv2
import time
import torch
import argparse
import numpy as npfrom Detection.Utils import ResizePadding
from CameraLoader import CamLoader, CamLoader_Q
from DetectorLoader import TinyYOLOv3_oneclsfrom PoseEstimateLoader import SPPE_FastPose
from fn import draw_singlefrom Track.Tracker import Detection, Tracker
from ActionsEstLoader import TSSTG#source = '../Data/test_video/test7.mp4'
#source = '../Data/falldata/Home/Videos/video (2).avi'  # hard detect
source = '../Data/falldata/Home/Videos/video (1).avi'
#source = 2def preproc(image):"""preprocess function for CameraLoader."""image = resize_fn(image)image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)return imagedef kpt2bbox(kpt, ex=20):"""Get bbox that hold on all of the keypoints (x,y)kpt: array of shape `(N, 2)`,ex: (int) expand bounding box,"""return np.array((kpt[:, 0].min() - ex, kpt[:, 1].min() - ex,kpt[:, 0].max() + ex, kpt[:, 1].max() + ex))if __name__ == '__main__':par = argparse.ArgumentParser(description='Human Fall Detection Demo.')par.add_argument('-C', '--camera', default=source,  # required=True,  # default=2,help='Source of camera or video file path.')par.add_argument('--detection_input_size', type=int, default=384,help='Size of input in detection model in square must be divisible by 32 (int).')par.add_argument('--pose_input_size', type=str, default='224x160',help='Size of input in pose model must be divisible by 32 (h, w)')par.add_argument('--pose_backbone', type=str, default='resnet50',help='Backbone model for SPPE FastPose model.')par.add_argument('--show_detected', default=False, action='store_true',help='Show all bounding box from detection.')par.add_argument('--show_skeleton', default=True, action='store_true',help='Show skeleton pose.')par.add_argument('--save_out', type=str, default='',help='Save display to video file.')par.add_argument('--device', type=str, default='cuda',help='Device to run model on cpu or cuda.')args = par.parse_args()device = args.device# DETECTION MODEL.inp_dets = args.detection_input_sizedetect_model = TinyYOLOv3_onecls(inp_dets, device=device)# POSE MODEL.inp_pose = args.pose_input_size.split('x')inp_pose = (int(inp_pose[0]), int(inp_pose[1]))pose_model = SPPE_FastPose(args.pose_backbone, inp_pose[0], inp_pose[1], device=device)# Tracker.max_age = 30tracker = Tracker(max_age=max_age, n_init=3)# Actions Estimate.action_model = TSSTG()resize_fn = ResizePadding(inp_dets, inp_dets)cam_source = args.cameraif type(cam_source) is str and os.path.isfile(cam_source):# Use loader thread with Q for video file.cam = CamLoader_Q(cam_source, queue_size=1000, preprocess=preproc).start()else:# Use normal thread loader for webcam.cam = CamLoader(int(cam_source) if cam_source.isdigit() else cam_source,preprocess=preproc).start()#frame_size = cam.frame_size#scf = torch.min(inp_size / torch.FloatTensor([frame_size]), 1)[0]outvid = Falseif args.save_out != '':outvid = Truecodec = cv2.VideoWriter_fourcc(*'MJPG')writer = cv2.VideoWriter(args.save_out, codec, 30, (inp_dets * 2, inp_dets * 2))fps_time = 0f = 0while cam.grabbed():f += 1frame = cam.getitem()image = frame.copy()# Detect humans bbox in the frame with detector model.detected = detect_model.detect(frame, need_resize=False, expand_bb=10)# Predict each tracks bbox of current frame from previous frames information with Kalman filter.tracker.predict()# Merge two source of predicted bbox together.for track in tracker.tracks:det = torch.tensor([track.to_tlbr().tolist() + [0.5, 1.0, 0.0]], dtype=torch.float32)detected = torch.cat([detected, det], dim=0) if detected is not None else detdetections = []  # List of Detections object for tracking.if detected is not None:#detected = non_max_suppression(detected[None, :], 0.45, 0.2)[0]# Predict skeleton pose of each bboxs.poses = pose_model.predict(frame, detected[:, 0:4], detected[:, 4])# Create Detections object.detections = [Detection(kpt2bbox(ps['keypoints'].numpy()),np.concatenate((ps['keypoints'].numpy(),ps['kp_score'].numpy()), axis=1),ps['kp_score'].mean().numpy()) for ps in poses]# VISUALIZE.if args.show_detected:for bb in detected[:, 0:5]:frame = cv2.rectangle(frame, (bb[0], bb[1]), (bb[2], bb[3]), (0, 0, 255), 1)# Update tracks by matching each track information of current and previous frame or# create a new track if no matched.tracker.update(detections)# Predict Actions of each track.for i, track in enumerate(tracker.tracks):if not track.is_confirmed():continuetrack_id = track.track_idbbox = track.to_tlbr().astype(int)center = track.get_center().astype(int)action = 'pending..'clr = (0, 255, 0)# Use 30 frames time-steps to prediction.if len(track.keypoints_list) == 30:pts = np.array(track.keypoints_list, dtype=np.float32)out = action_model.predict(pts, frame.shape[:2])action_name = action_model.class_names[out[0].argmax()]action = '{}: {:.2f}%'.format(action_name, out[0].max() * 100)if action_name == 'Fall Down':clr = (255, 0, 0)elif action_name == 'Lying Down':clr = (255, 200, 0)# VISUALIZE.if track.time_since_update == 0:if args.show_skeleton:frame = draw_single(frame, track.keypoints_list[-1])frame = cv2.rectangle(frame, (bbox[0], bbox[1]), (bbox[2], bbox[3]), (0, 255, 0), 1)frame = cv2.putText(frame, str(track_id), (center[0], center[1]), cv2.FONT_HERSHEY_COMPLEX,0.4, (255, 0, 0), 2)frame = cv2.putText(frame, action, (bbox[0] + 5, bbox[1] + 15), cv2.FONT_HERSHEY_COMPLEX,0.4, clr, 1)# Show Frame.frame = cv2.resize(frame, (0, 0), fx=2., fy=2.)frame = cv2.putText(frame, '%d, FPS: %f' % (f, 1.0 / (time.time() - fps_time)),(10, 20), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 1)frame = frame[:, :, ::-1]fps_time = time.time()if outvid:writer.write(frame)cv2.imshow('frame', frame)if cv2.waitKey(1) & 0xFF == ord('q'):break# Clear resource.cam.stop()if outvid:writer.release()cv2.destroyAllWindows()

代码实现演示(实现人体跌倒检测与跟踪)

在这里插入图片描述

源码下载链接

C# WinForms工业相机+本地图像 通过YoloV8深度学习模型实现人体跌倒检测与跟踪 源码

工业相机通过YoloV8模型实现人体跌倒检测与跟踪的行业应用

工业相机 + YOLOv8 实现「实现人体跌倒检测与跟踪」行业应用速览
(2024-2025 年已落地,含源码、数据集、专利)

场景业务痛点工业相机/硬件形态YOLOv8 技术方案 & 现场效果一键资源
① 养老院/医院病房夜间跌倒无人发现4 K 全局快门 30 fps + 红外补光YOLOv8-EdgeFall 轻量化模型 3.2 MB,Jetson Orin Nano 25 ms/帧,识别准确率 97 %,误报 < 1 %CSDN 源码+PyQt5
② 智能家居/客厅老人独居风险高2 MP 家用网络摄像头YOLOv8 + DeepSort 轨迹分析,跌倒 3 秒触发手机推送知乎专栏
③ 机场/车站大厅人流密集、突发跌倒8 K 云台相机 60 fps改进 YOLOv8(RFAConv+Diou-Inner-Focaler)mAP 83 %,定位误差 < 5 cm汉斯出版社论文
④ 工业车间/仓库工人高处作业跌倒防爆 2 MP 工业相机YOLOv8-seg 实例分割 + 声光报警,实时弹窗+短信通知阿里云案例
⑤ 校园/操场学生运动意外车载 5 MP 相机 + Jetson Nano轻量 YOLOv8-Ghost,功耗 6 W,30 fps 实时预警博客园源码
⑥ 网页端实时监测零安装、浏览器即用USB3.0 120 fps 工业相机Streamlit + YOLOv8,CPU ONNX 80 ms,支持图片/视频/摄像头博客园网页方案

关键技术细节

数据集:公开「Fall-2024」含 4.8 万张跌倒/正常图像,已标注 YOLO 格式
模型:YOLOv8n/s/x + 注意力/轻量化 + 姿态关键点,INT8 量化 3-5 MB
部署:Jetson Orin Nano 15-25 ms/帧;x86 IPC + RTX 3060 8 路并发 <30 W
合规:原始视频 72 h 自动覆盖,仅留事件 JSON,符合《个人信息保护法》

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/diannao/97074.shtml
繁体地址,请注明出处:http://hk.pswp.cn/diannao/97074.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

从源码看浏览器弹窗消息机制:SetDefaultView 的创建、消息转发与本地/在线页通用实践

引言在现代浏览器的开发中&#xff0c;前端页面和 C 内核之间的通信是一项核心功能。无论是本地设置页&#xff08;chrome:// 内置 H5&#xff09;还是在线活动页&#xff0c;前端都可能需要调用浏览器底层 API&#xff0c;实现诸如“设置默认浏览器”、“更改壁纸”、“读取用…

对比视频处理单元(VPU)、图形处理器(GPU)与中央处理器(CPU)

如今选择互联网点播流媒体与直播视频的用户数量已远超传统广播电视&#xff0c;这一转变催生了对高性能媒体转码与OTT流媒体功能专用技术的需求。 我们最新推出的Accelerated Compute云计算解决方案&#xff0c;首次通过NETINT Quadra视频处理单元&#xff08;VPU&#xff09;…

vue3写一个简单的时间轴组件

插件版本&#xff1a;"element-plus": "^2.3.12""vue": "^3.0.0"代码示例&#xff1a;样式文件style.less&#xff1a;改变el-tooltip样式&#xff0c;可以复制代码到公共样式文件.el-popper.o-el-tooltip-popper-class {max-width: 3…

Linex系统网络管理(二)

二、网络连接查看1. netstat作用查看本地服务的网络监听状态查看客户端连接到本地服务的连接状态语法&#xff1a;netstat 选项 &#xff08;-anptu&#xff09;选项作用-n&#xff0c; --numeric显示数字形式地址而不是去解析主机、端口或用户名-a, --all显示所有的监听或连接…

Unity MQTT通讯

首先明确概念&#xff0c;什么是MQTT&#xff1f; MQTT是一种轻量级、基于发布 / 订阅&#xff08;Publish/Subscribe&#xff09;模式的物联网&#xff08;IoT&#xff09;通信协议&#xff0c;在带宽有限、网络不稳定的环境下&#xff0c;实现低功耗、低延迟的设备间通信&am…

JavaSE:类和对象2

一、封装封装的概念面向对象程序三大特性&#xff1a;封装、继承、多态。而类和对象阶段&#xff0c;主要研究的就是封装特性。何为封装呢&#xff1f;简单来说 就是套壳屏蔽细节。例如手机&#xff0c;你看不到任何的内部实现细节&#xff0c;只留下一些公开的接口给你使用&am…

RandAR训练自己的数据集

论文题目:RandAR: Decoder-only Autoregressive Visual Generation in Random Orders(随机顺序下仅解码器的自回归视觉生成) 会议:CVPR2025 摘要:我们介绍了RandAR,一种仅解码器的视觉自回归(AR)模型,能够以任意令牌顺序生成图像。与之前依赖于预定义生成顺序的纯解码器…

基于PHP服装租赁管理系统/基于php的服装管理系统的设计与实现

基于PHP服装租赁管理系统/基于php的服装管理系统的设计与实现

高并发内存池(12)-ThreadCache回收内存

高并发内存池&#xff08;12&#xff09;-ThreadCache回收内存 代码如下&#xff1a; // 释放对象时&#xff0c;链表过长时&#xff0c;回收内存回到中心缓存 void ThreadCache::ListTooLong(FreeList& list, size_t size) {void* start nullptr;void* end nullptr;list…

读大语言模型09超级智能

1. 超级智能1.1. 如果人工智能超越人类智能&#xff0c;可能会成为人类存在的一个重大威胁1.1.1. 对超级人工智能潜在危险最为担忧的群体中&#xff0c;恰恰包括那些否认大语言模型具备真正智能的人1.2. 计算机科学已经成为所有科学领域中不可或缺的重要组成部1.3. GPT具备编写…

阿里云拉取dockers镜像

假如你已经在云服务器上安装了docker需要配置下docker镜像加速代理就行了找到自己的加速网址&#xff1a;然后在云服务器上&#xff0c;修改docker 配置文件&#xff0c;vi /etc/docker/daemon.json没有这个文件的话&#xff0c;需要创建一个。{"default-address-pools&qu…

python自学笔记14 NumPy 线性代数

在Numpy库中有专门的linalg 模块用来做线性代数相关的运算。 本文中线性代数的一般概念不会解释 拆解矩阵 鸢尾花数据矩阵结构如下&#xff08;150 4&#xff09;&#xff1a;取其中的行向量和列向量&#xff1a; # 导入包 import numpy as np from sklearn.datasets import l…

ubuntu20搭建MQTT

sudo apt update sudo apt install mosquitto mosquitto-clients sudo mosquitto_passwd -c /etc/mosquitto/passwd myuser sudo nano /etc/mosquitto/mosquitto.conf# 允许匿名用户连接&#xff08;默认为 true&#xff0c;我们先关闭它&#xff09; allow_anonymous false# 指…

云服务器的主要用途都有哪些?

企业可以利用云服务器构建官方网站&#xff0c;企业官网需要稳定的运行环境来展示产品、服务、公司动态等信息&#xff0c;云服务器提供的高可用性和可扩展性&#xff0c;能保障大量用户同时访问时网站的稳定运行。移动应用的后端服务可以部署在云服务器上&#xff0c;如社交类…

IntelliJ IDEA Debug 模式功能指南

文章目录前言&#x1f4a1; 1. 断点类型与设置&#x1f680; 2. 启动 Debug 模式⚙️ 3. 调试控制按钮详解&#x1f440; 4. 查看与监控变量&#x1f9f0; 5. 高级调试技巧&#x1f48e; 总结前言 作为一名 Java 开发者&#xff0c;熟练掌握调试技巧是提高开发效率的关键。Int…

在pycharmIDE中如何快速掌握一个新模块的使用方法

一、文档使用悬停文档&#xff1a;鼠标悬停在模块/函数上显示文档摘要 (⭐最常用)快速文档&#xff1a;选中标识符按 CtrlQ (Windows/Linux) 或 F1 (Mac)跳转定义&#xff1a;Ctrl左键单击 直接跳转到源码定义处 (⭐最权威)参数提示&#xff1a;输入函数名时自动显示参数列表&a…

win11自定义停止更新方法

一、打开运行窗口&#xff08;winr&#xff09;输入regedit打开注册表编辑器。按照如下路径寻找。计算机\HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\WindowsUpdate\UX\Settings二、在Settings页面下右击——>新建——>DWORD(32位)值(D)&#xff0c;并重命名为粉色框中的名字…

Unity委托、匿名方法与事件深度解析:从理论到实战

Unity委托、匿名方法与事件深度解析&#xff1a;从理论到实战 摘要&#xff1a;本文深入剖析Unity中委托、匿名方法与事件的核心机制&#xff0c;结合理论框架与实战案例&#xff0c;帮助开发者掌握高效的事件驱动编程技巧。全文包含12个代码片段及6个核心原理图示框架&#x…

大脑的藏宝图——神经科学如何为自然语言处理(NLP)的深度语义理解绘制新航线

摘要&#xff1a; 截至2025年&#xff0c;大型语言模型&#xff08;LLM&#xff09;已展现出惊人的能力&#xff0c;但其内在的“黑箱”特性和对深层语义理解的局限性也日益凸显。本报告旨在深入探讨一个充满潜力的前沿交叉领域&#xff1a;借鉴地球上最古老、最精密的语言处理…

记录使用ruoyi-flowable开发部署中出现的问题以及解决方法(二)

1.vform的使用与传值 使用动态表单&#xff0c;把当前的用户名传值进动态表单&#xff0c;另外动态表单的上传组件成功后传值会父组件。 在父组件的加载函数中增加&#xff1a; mounted(){this.$refs.vFormRef.addEC("getuploadfile",this);},该方法为给表单加载外…