程序员求职经验分享与学习资料整理平台

巴鲁凯网

网站首页 relusigmoid

  • 从0开始实现目标检测——基于YOLOv5

    从0开始实现目标检测——基于YOLOv5

    一.背景在上次我们利用YOLOv3做目标检测的任务中(参考文章:从0开始实现目标检测——实践篇),我们遗留一些问题,其中一个是利用YOLOv5做一次对比,既然是对比,也就是在数据集不变的情况下,基于YOLOv5进行训练,看看整个模型的mA...

    2025-01-15 balukai 文章精选 5 ℃
  • 【人工智能】简单理解CNN卷积神经网络并python实现(带源码)

    【人工智能】简单理解CNN卷积神经网络并python实现(带源码)

    深度学习算法及应用实验目的实验要求实验的硬件、软件平台实验原理实验内容与步骤思考实验总结一、实验目的了解深度学习的基本原理能够使用深度学习开源工具识别图像中的数字了解图像识别的基本原理二、实验要求解释深度学习原理;对实验性...

    2025-01-15 balukai 文章精选 5 ℃
  • Richard Sutton 直言卷积反向传播已经落后,AI 突破要有新思路:持续反向传播

    Richard Sutton 直言卷积反向传播已经落后,AI 突破要有新思路:持续反向传播

    作者|RichardSutton编译|bluemin编辑|陈彩娴“可塑性损失”(LossofPlasticity)是深度神经网络最常被诟病的一个缺点,这也是基于深度学习的AI系统被认为无法持续学习的原因之一。对于人脑而...

    2025-01-15 balukai 文章精选 4 ℃
  • 深入理解机器学习中的最大熵原理与Softmax函数

    深入理解机器学习中的最大熵原理与Softmax函数

    引言在本篇博客中,将探索机器学习领域的一个重要概念——最大熵。通过这个过程,我们不仅会了解到最大熵如何统一了sigmoid和softmax函数,还会发现它对神经网络乃至整个机器学习领域的影响。从单一分类到多分类的跃进梯度下降法是训练神经网络...

    2025-01-15 balukai 文章精选 12 ℃
  • 技术干货!LLM工程师必读量化指南,可视化揭秘大模型如何压缩

    技术干货!LLM工程师必读量化指南,可视化揭秘大模型如何压缩

    编辑:编辑部【新智元导读】面对LLM逐渐膨胀的参数规模,没有H100的开发者和研究人员们想出了很多弥补方法,「量化」技术就是其中的一种。这篇可视化指南用各种图解,将「量化」的基本概念和分支方法进行了全方位总结。大语言模型(LLM)通常过于庞...

    2025-01-15 balukai 文章精选 12 ℃
  • 神经网络中的全连接层是什么?

    神经网络中的全连接层是什么?

    全连接层(FullyConnectedLayer,简称FCLayer或DenseLayer)是神经网络中的一个常见层,尤其在深度学习的上下文中。它在许多网络架构中都被广泛应用,如卷积神经网络(CNN)或者BERT模型的最后几层...

    2025-01-15 balukai 文章精选 11 ℃
  • 揭秘PyTorch神器:巧妙使用torch.nn.Linear提升深度学习模型

    揭秘PyTorch神器:巧妙使用torch.nn.Linear提升深度学习模型

    前言在深度学习模型中,线性层是最基础且关键的组成部分之一。torch.nn.Linear是PyTorch中用于实现全连接层的模块,它在神经网络的前向传播中扮演着重要角色。理解和掌握torch.nn.Linear的使用,对构建高效的...

    2025-01-15 balukai 文章精选 9 ℃
  • 深度学习:正向传播、反向传播

    深度学习:正向传播、反向传播

    深度学习中,正向传播和反向传播是模型训练的两个核心过程。以下是这两个过程的详细解释:一、正向传播(ForwardPropagation)正向传播是指从输入层开始,将输入数据乘以权重并加上偏置项,然后将结果通过激活函数(如Sigmoid、R...

    2025-01-15 balukai 文章精选 8 ℃
  • Attention之SENet

    Attention之SENet

    1.Squeeze-and-ExcitationNetworkSENet是Squeeze-and-ExcitationNetworks的简称,拿到了ImageNet2017分类比赛冠军,其效果得到了认可,其提出的SE模块...

    2025-01-15 balukai 文章精选 10 ℃
  • 神经网络背后的数学原理:反向传播过程及公式推导

    神经网络背后的数学原理:反向传播过程及公式推导

    清华大数据软件团队官方微信公众号来源:DeephubImba本文约3500字,建议阅读5分钟如何计算隐藏层中的误差?微积分和这些有什么关系?反向传播是神经网络通过调整神经元的权重和偏差来最小化其预测输出误差的过程。但是这些变化是如何发生的...

    2025-01-15 balukai 文章精选 11 ℃
控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言