自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(894)
  • 收藏
  • 关注

原创 【高并发】Python线程池嵌套实战、问题分析与优化实践

线程资源消耗降低58%异常可追溯性提升系统吞吐量增加20%当遇到需要动态生成任务的场景时,建议优先考虑基于队列的任务分发机制,而非简单粗暴的线程池嵌套。对于更复杂的并发需求,可结合异步编程模型(如asyncio)或分布式任务框架来构建健壮的系统。

2025-03-10 07:14:04 25

原创 【python高并发】高速将图片提交到flask、fastapi等主流服务框架

通过以上改造,您可以在不修改视频切片逻辑的前提下,将图片请求的吞吐量提升至原有单线程的10倍以上(具体取决于服务端响应速度)。若需进一步优化,可结合异步IO与连接池技术(如。高性能,高并发的读取图片,并将图片传输到服务器的应用场景很多,比如上传图片到网站,将图片提交到后台推理等。这篇文章实现一种多线程并发方式将图片提交到后台。通过线程池管理并发请求,避免手动创建/销毁线程的开销,且支持动态控制并发量。• 建议通过压力测试确定最佳值(如从10逐步增加)。• 记录失败请求的图片路径,便于后续补传。

2025-03-10 07:02:41 172

原创 Yolo11改进策略:Block改进|CBlock,Transformer式的卷积结构|即插即用

通过网盘分享的文件:Yolo11改进策略:Block改进CBlock,Transformer式的卷积结构即插即用链接: https://pan.baidu.com/s/1vqC6FxvR8nXYAQlI1DwtKA?pwd=54s8 提取码: 54s8--来自百度网盘超级会员v3的分享。

2025-03-02 14:55:32 184

原创 YoloV8改进策略:Block改进|CBlock,Transformer式的卷积结构|即插即用

通过网盘分享的文件:YoloV8改进策略:Block改进-CBlock,Transformer式的卷积结构——即插即用链接: https://pan.baidu.com/s/1yfUIOQf0F8RJZ4234zpRyA?pwd=kwew 提取码: kwew--来自百度网盘超级会员v3的分享。

2025-03-01 20:53:32 205

原创 Yolo11数据处理:数据增强篇_图像旋转

假设一种情况:数据集是别人给你做好的Yolo格式的数据,是遥感或者无人机拍摄的数据。我们对其做一些旋转增强。

2025-03-01 15:15:01 43

原创 Yolo11实战:基于YOLOv11的半自动化数据标注技术实践

在人工智能项目开发中,数据标注的耗时性与高成本已成为制约模型迭代效率的核心瓶颈。本文以YOLOv11的COCO预训练模型为技术基础,系统阐述半自动化标注流程的设计与实现,旨在通过**“模型推理-人工校验-迭代优化”**的闭环机制,显著提升标注效率与数据质量。初始标注数据集的构建YOLOv11预训练模型部署与微调批量推理与预标注生成人工交互式修正与质量校验效率提升质量控制模型泛化局限标注工具协同性数据安全与合规我使用Yolo11的xl模型举例,xl模型是得分最高的。使用xl模型构建的数据集相对来说,比较准确。

2025-03-01 07:43:52 227

原创 何凯明新作:分形生成模型

模块化是计算机科学的基石,它将复杂功能抽象为原子构建模块。在本文中,我们通过将生成模型抽象为原子生成模块,引入了新一级的模块化。类似于数学中的分形,我们的方法通过递归调用原子生成模块,构建了一种新型生成模型,从而形成了自相似的分形架构,我们称之为分形生成模型。作为一个运行示例,我们使用自回归模型作为原子生成模块来实例化我们的分形框架,并在具有挑战性的逐像素图像生成任务上对其进行了检验,在似然估计和生成质量方面都表现出了强大的性能。我们希望这项工作能够开创生成建模的新范式,并为未来的研究提供肥沃的土壤。

2025-03-01 06:43:30 72

原创 原生稀疏注意力:硬件对齐且可原生训练的稀疏Attention

https://arxiv.org/pdf/2502.11089v1长上下文建模是下一代语言模型的关键技术,但标准注意力机制的高计算成本带来了重大挑战。稀疏注意力为提高效率同时保持模型能力提供了有前景的解决方案。我们提出了NSA(原生可训练稀疏注意力机制),通过将算法创新与硬件对齐优化相结合,实现高效的长上下文建模。NSA采用动态分层稀疏策略,将粗粒度令牌压缩与细粒度令牌选择相结合,既保留全局上下文感知能力,又维持局部精度。我们的方法通过两项关键创新推动了稀疏注意力设计:(1) 通过算术强度平衡的算法设计和

2025-02-26 06:06:42 50

原创 Python OpenCV图像去模糊实战:离焦模糊的修复原理与Python实现

LAB色彩空间:LAB色彩空间将图像分为亮度(L)和两个色度通道(A和B),在LAB空间中进行对比度增强可以更好地保留颜色信息。LAB空间的亮度通道(L)与色度通道(A和B)分开处理,可以有效增强图像的对比度而不影响色彩的自然性。CLAHE(对比度限制自适应直方图均衡化):CLAHE通过对图像进行局部直方图均衡化,能够有效增强图像的对比度,同时避免过度增强导致的噪声。锐化核:使用自定义的锐化核(如高通滤波器)对每个颜色通道进行处理,可以增强图像的边缘和细节。:实际应用中需通过盲去卷积估计PSF参数。

2025-02-19 12:01:53 222

原创 【大模型实战】 Ollama部署满血量化版的DeepSeek R1模型(671B)

选择ollama-linux-amd64.tgz文件,如果下载慢,可以将连接放到迅雷里面提升下载速度。将下载的包复制到服务器上,解压并放到/usr目录是用于在 Linux 系统上解压并安装sudo以管理员权限执行命令,确保对系统目录/usr有写入权限。tarLinux 系统自带的归档工具,支持打包、解包和压缩功能。-C /usr指定解压目标目录为/usr,解压前会先切换到该目录。示例:解压路径当前目录→/usr目录-x执行解压操作(extract),从归档文件中提取内容。-z。

2025-02-17 15:01:43 90

原创 【大模型部署实战】Ollama如何保持模型常驻内存,或者显存,如何立刻释放

参数,用户可以灵活地管理 Ollama 中模型的内存使用,既可以保持模型在内存中以提高响应速度,也可以根据需要及时卸载模型以释放资源。这种灵活性使得 Ollama 在处理大语言模型时更加高效和便捷[1][4][9][10]。Ollama 是一个用于管理和运行大语言模型的框架,默认情况下,模型在生成响应后会在内存中保留 5 分钟。然而,用户可能希望根据需求调整这一行为,以便更好地管理内存使用。用户可以通过 API 请求来设置该参数,以控制模型在内存中的保留时间。如果需要立即卸载模型以释放内存,可以通过设置。

2025-02-15 09:17:05 667

原创 【大模型实战】介绍部署框架

特性:xinference框架在支持模型数量以及各种特性上表现突出,被认为特性最全、支持模型最多。优势:能够提高模型训练和部署的效率,降低模型在部署过程中的时间和成本。链接:https://inference.readthedocs.io/zh-cn/latest/models/builtin/llm/index.html#models-llm-index支持多种部署方式,有的模型不支持。我在部署Deepseek R1满血版的时候报错了。

2025-02-13 16:47:12 119

原创 【大模型实战】使用Ollama环境搭建以及GGUF模型导入

Ollama官方链接:https://ollama.com/,打开链接后就可以看到大大的下载按钮,如下图:我选择用Win的安装。

2025-02-11 21:01:08 203

原创 【大模型实战】使用Ollama+OpenWebUI实现本地Deepseek R1模型搭建

Ollama官方链接:https://ollama.com/,打开链接后就可以看到大大的下载按钮,如下图:我选择用Win的安装。

2025-02-10 21:56:54 439

原创 【大模型实战】使用Ollama+Chatbox实现本地Deepseek R1模型搭建

Ollama官方链接:https://ollama.com/,打开链接后就可以看到大大的下载按钮,如下图:我选择用Win的安装。

2025-02-10 21:56:23 770

原创 【多模态大模型实战】 搭建通义千问Qwen 2.5-VL-7B-Instruct多模态模型,以及推理微调

ms-swift是魔搭社区提供的大模型与多模态大模型训练部署框架,现已支持450+大模型与150+多模态大模型的训练(预训练、微调、人类对齐)、推理、评测、量化与部署。模型开发者可以在ms-swift框架中一站式完成围绕大模型的各类需求。目前ms-swift的主要能力包含:🍎 模型类型:支持450+纯文本大模型、150+多模态大模型,All-to-All全模态模型的训练到部署全流程。数据集类型:内置150+预训练、微调、人类对齐、多模态等各种类型的数据集,并支持自定义数据集。

2025-02-09 06:58:39 407

原创 【多模态大模型实战】 搭建DeepSeek Janus-Pro 7B 多模态模型,以及推理微调,推理后的模型融合

Janus-Pro是DeepSeek最新开源的多模态模型,是一种新颖的自回归框架,统一了多模态理解和生成。通过将视觉编码解耦为独立的路径,同时仍然使用单一的、统一的变压器架构进行处理,该框架解决了先前方法的局限性。这种解耦不仅缓解了视觉编码器在理解和生成中的角色冲突,还增强了框架的灵活性。Janus-Pro 超过了以前的统一模型,并且匹配或超过了特定任务模型的性能。

2025-02-07 15:20:59 1638

原创 Yolo实战:将测试结果转为COCO指标

在验证方法里增加save_json的字段,并将其设置True。

2025-02-06 20:54:53 260

原创 YoloV9改进策略:Block改进|Conv2Former中的Block,卷积调制块,简化了自注意力机制,提高了内存效率

通过百度网盘分享的文件:YoloV9改进策略:Block改进Conv2Former中的Bloc...链接:https://pan.baidu.com/s/1FA468fFhLZdMyw_Ep6sZhg?pwd=ltu0提取码:ltu0--来自百度网盘超级会员V2的分享。

2025-02-06 20:54:24 60

原创 YoloV10改进策略:Block改进|Conv2Former中的Block,卷积调制块,简化了自注意力机制,提高了内存效率

论文链接:https://arxiv.org/pdf/2211.11943。

2025-02-05 21:24:54 71

原创 YoloV11改进策略:Block改进|Conv2Former中的Block,卷积调制块,简化了自注意力机制,提高了内存效率

通过百度网盘分享的文件:

2025-02-05 21:23:52 178

原创 DeepSeek-R1:通过强化学习激励大型语言模型(LLMs)的推理能力

推理任务:(1) DeepSeek-R1在AIME 2024上取得了79.8%的Pass@1成绩,略高于OpenAI-o1-1217。在MATH-500上,它获得了令人印象深刻的97.3%成绩,与OpenAI-o1-1217持平,并显著优于其他模型。(2) 在与编码相关的任务上,DeepSeek-R1在代码竞赛任务中表现出专家水平,在Codeforces上获得2029 Elo评级,超过了比赛中96.3%的人类参与者。

2025-01-29 12:07:22 1614

原创 YoloV8改进策略:Block改进|Conv2Former中的Block,卷积调制块,简化了自注意力机制,提高了内存效率

论文链接:https://arxiv.org/pdf/2211.11943。

2025-01-24 07:05:00 210

原创 【Block总结】FCA,自适应细粒度通道注意|即插即用

UBRFC-Net的核心是无监督双向对比重建框架(BCRF),其主要目标是建立双向对比重建约束。这一框架不仅避免了CycleGAN中生成器学习的混淆,还增强了对清晰图像的约束能力和无监督去雾网络的重建能力。具体来说,BCRF通过对比学习的方式,利用真实图像和生成图像之间的相似性来优化网络的学习过程,从而提高去雾效果。

2025-01-23 07:19:19 844

原创 Yolo11改进策略:Block改进|注意力改进|FCA,自适应细粒度通道注意|即插即用

论文标题:Unsupervised Bidirectional Contrastive Reconstruction and Adaptive Fine-Grained Channel Attention Networks for image dehazing论文链接:https://www.x-mol.com/paper/1785364146451894272?advGithub链接:https://gitee.com/lose_recall/ubrfc-net图像去雾是计算机视觉中的一个重要任务,旨在从

2025-01-22 09:45:59 500

原创 YoloV10改进策略:Block改进|注意力改进|FCA,自适应细粒度通道注意|即插即用

论文标题:Unsupervised Bidirectional Contrastive Reconstruction and Adaptive Fine-Grained Channel Attention Networks for image dehazing论文链接:https://www.x-mol.com/paper/1785364146451894272?advGithub链接:https://gitee.com/lose_recall/ubrfc-net图像去雾是计算机视觉中的一个重要任务,旨在从

2025-01-22 09:45:11 195

原创 YoloV9改进策略:Block改进|注意力改进|FCA,自适应细粒度通道注意|即插即用

论文标题:Unsupervised Bidirectional Contrastive Reconstruction and Adaptive Fine-Grained Channel Attention Networks for image dehazing论文链接:https://www.x-mol.com/paper/1785364146451894272?advGithub链接:https://gitee.com/lose_recall/ubrfc-net图像去雾是计算机视觉中的一个重要任务,旨在从

2025-01-21 06:54:53 64

原创 【Block总结】FCA,自适应细粒度通道注意|即插即用

UBRFC-Net的核心是无监督双向对比重建框架(BCRF),其主要目标是建立双向对比重建约束。这一框架不仅避免了CycleGAN中生成器学习的混淆,还增强了对清晰图像的约束能力和无监督去雾网络的重建能力。具体来说,BCRF通过对比学习的方式,利用真实图像和生成图像之间的相似性来优化网络的学习过程,从而提高去雾效果。

2025-01-21 06:48:51 786

原创 Yolo改进总结

Yolo的改进与发展不仅体现在技术的迭代上,更在于其在实际应用中的广泛适应性和不断优化的能力。随着深度学习技术的进步,Yolo将继续在目标检测领域发挥重要作用,Yolo依然是广大学生和从业者的首选。

2025-01-21 06:44:43 852

原创 YoloV8改进策略:Block改进|注意力改进|FCA,自适应细粒度通道注意|即插即用

论文标题:Unsupervised Bidirectional Contrastive Reconstruction and Adaptive Fine-Grained Channel Attention Networks for image dehazing论文链接:https://www.x-mol.com/paper/1785364146451894272?advGithub链接:https://gitee.com/lose_recall/ubrfc-net图像去雾是计算机视觉中的一个重要任务,旨在从

2025-01-21 06:32:08 646

原创 【Block总结】WTConv,小波变换(Wavelet Transform)来扩展卷积神经网络(CNN)的感受野

论文《WaveletConvolutionsforLargeReceptiveFields》提出了一种新型卷积层,称为WTConv(WaveletTransformConvolution),旨在通过小波变换(WaveletTransform)来扩展卷积神经网络(CNN)的感受野。该方法能够在不显著增加参数数量的情况下,获得接近全局的感受野,从而提高模型对低频信息的捕捉能力。

2025-01-20 06:41:14 1030

原创 Yolo11改进策略:卷积改进|WTConv,小波变换(Wavelet Transform)来扩展卷积神经网络(CNN)的感受野|即插即用

论文《WaveletConvolutionsforLargeReceptiveFields》提出了一种新型卷积层,称为WTConv(WaveletTransformConvolution),旨在通过小波变换(WaveletTransform)来扩展卷积神经网络(CNN)的感受野。该方法能够在不显著增加参数数量的情况下,获得接近全局的感受野,从而提高模型对低频信息的捕捉能力。

2025-01-19 21:17:46 90

原创 Yolo11改进策略:Neck层改进|EFC,北理提出的适用小目标的特征融合模块|即插即用

综上所述,基于增强层间特征相关性的轻量级融合策略为小目标检测提供了一种有效的解决方案。通过优化特征融合过程,该方法能够更好地应对小目标检测中的挑战,提升检测精度和效率。

2025-01-19 20:43:41 262 2

原创 YoloV10改进策略:Neck层改进|EFC,北理提出的适用小目标的特征融合模块|即插即用

综上所述,基于增强层间特征相关性的轻量级融合策略为小目标检测提供了一种有效的解决方案。通过优化特征融合过程,该方法能够更好地应对小目标检测中的挑战,提升检测精度和效率。通过百度网盘分享的文件:YoloV8改进策略:Neck层改进EFC,北理提出的适用小目标的特征...链接:https://pan.baidu.com/s/1x0XPvaDewxWdlM_IIkm6-g?pwd=vizj提取码:vizj--来自百度网盘超级会员V2的分享。

2025-01-17 22:58:29 119

原创 YoloV8改进策略:Neck层改进|EFC,北理提出的适用小目标的特征融合模块|即插即用

综上所述,基于增强层间特征相关性的轻量级融合策略为小目标检测提供了一种有效的解决方案。通过优化特征融合过程,该方法能够更好地应对小目标检测中的挑战,提升检测精度和效率。这项研究的成果为未来在无人机图像处理及其他相关领域的应用奠定了基础。

2025-01-16 16:52:26 359

原创 Yolo11改进策略:Block改进|Dilated G-CSA,多头扩张卷积的自注意力模块,增强对全局上下文信息的感知能力|即插即用

初始化方法__init__方法定义了模块的结构。dim:输入特征的通道数。num_heads:多头自注意力的头数。bias:卷积层是否使用偏置。层的定义self.qkv:一个 1x1 的卷积层,用于生成查询(Q)、键(K)和值(V)三个特征图。:一个扩张卷积层,使用 3x3 的卷积核,扩张因子为 2,旨在增强感受野并提取更丰富的特征。表示每个通道独立卷积,保持通道间的特征分离。:一个 1x1 的卷积层,用于将输出特征映射回原始通道数。模块结合了扩张卷积和多头自注意力机制,旨在提高图像特征提取的能力。

2025-01-16 15:23:41 202

原创 DeepSeek-V3报告解读

DeepSeek-V3实现多token预测的方式主要通过引入**多token预测(Multi-Token Prediction, MTP)**目标来增强模型的性能。

2025-01-15 20:50:08 1278

原创 CrossFormer实战:使用CrossFormer实现图像分类任务(二)

训练部分。

2025-01-15 20:35:44 640

原创 CrossFormer实战:使用CrossFormer实现图像分类任务(一)

摘要CrossFormer是一种新型的视觉Transformer架构,旨在通过引入跨尺度注意力机制来提升计算机视觉任务的性能。该模型特别关注不同尺度特征之间的交互,解决了现有视觉Transformer在处理多尺度特征时的不足。研究背景在计算机视觉中,特征的多尺度性对于理解和处理图像至关重要。然而,许多现有的视觉Transformer模型未能有效利用这些跨尺度特征,主要原因包括:输入嵌入在每一层都是相同尺度的,缺乏跨尺度特征。一些模型为了降低计算成本,牺牲了小尺度特征。核心创新CrossF

2025-01-15 20:35:03 899

原创 YoloV10改进策略:Block改进|Dilated G-CSA,多头扩张卷积的自注意力模块,增强对全局上下文信息的感知能力|即插即用

初始化方法__init__方法定义了模块的结构。dim:输入特征的通道数。num_heads:多头自注意力的头数。bias:卷积层是否使用偏置。层的定义self.qkv:一个 1x1 的卷积层,用于生成查询(Q)、键(K)和值(V)三个特征图。:一个扩张卷积层,使用 3x3 的卷积核,扩张因子为 2,旨在增强感受野并提取更丰富的特征。表示每个通道独立卷积,保持通道间的特征分离。:一个 1x1 的卷积层,用于将输出特征映射回原始通道数。模块结合了扩张卷积和多头自注意力机制,旨在提高图像特征提取的能力。

2025-01-15 07:06:52 58

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除