avatar

路漫漫其修远兮

深度学习课程复习笔记

复习课视频录像 GRC和他小伙伴的笔记 0. 题型 题型 数量 分值 简答题 4 60 设计题 2 25 未知题型 1 15 老师对最后的题目讳莫如深,“你只要上课听了,还是能拿一点分的"。 1. 提纲第二章 掌握随机梯度下降算法 掌握批量梯度下降算法 理解正则化(L1,L2) 掌握Dropout思想、处理流程等 掌握常用定理:NFL、丑小鸭、奥卡姆剃刀等 第三章 掌握Logistic回归、Softmax回归 掌握各种常见的损失函数公式以及针对具体的应用场景,如平方损失、交叉熵损失等 理解经验风险与结构风险 第四章 掌握几种常见的激活函数(Sigmoi

计算机复试常见问题整理

本文非原创,转载自csdn一匹好人呀 1. 软件工程和计算机有什么区别? 基础课程重复度较高。+ 计算机偏学术研究,软件工程偏工程实践。一般来说计算机的学习偏重学习计算机的原理。学习偏理论,学习内容涉及软件也涉及硬件。软件工程,简称 (SE)。SE 的学习主要是围绕着软件的应用、设计、开发、维护架构这几个模块等,偏应用、工程、实践,学习内容涉及一些基本的硬件,但更多是工程的理论和大量的软件实践知识。+ 软件工程培养计划里面一般有项目管理,架构,测试等科目。 2. 算法的基本特征和复杂度 (1)基本特征 输入、输出、有穷性

机器学习课程复习笔记

1. 绪论 机器学习的概念不需要确定性编程就可以赋予机器某项技能 Performance Task Experience,程序使用E在T上获得了P的提升,就是学习 按照任务种类分:回归、分类、聚类、降维 按照学习方式分:有监督、无监督、强化学习 2. 模型的评估与选择 重点章节 各种评价指标,包括写代码、调用库函数 例题如协方差矩阵、查准、混淆矩阵、ROC曲线 基本知识点如过拟合问题与解决方案 经验误差empirical error:在训练集上的误差(训练误差) 泛化误差generalization error:在未来样本上的误差 泛化误差越小越好,但经验误差

Pyinstaller打包问题

记录我在使用pyinstall打包客户端应用的时候,遇到的一些跨平台问题。 Windows7 适配问题 1 LoadLibrary: PyInstaller FormatMessageW failed. python 3.9 开始不再适配win 7,如果软件要在 win 7上运行,python环境最高是3.8 win7 缺失的动态运行加载库 1 无法启动此程序,因为计算机中丢失api-ms-win-core-path-l1-1-0.dll尝试重新安装该程序以解决此问题。 缺啥补啥,把DLL文件放入程序根目录文件夹,或者放到C:/windows/System32下。不过一般这个问题不会单独出现,是由于pyinstaller打包的时候,一些动态加载的

并行计算课程复习笔记

复习课纲要第一章 Amdal 定律 对定律的理解(任务不变的情况下,速度的提升、加速比)、加速的极限 应用题 6’*5 网格和线程块的布局,计算全局id 并行、并发、线程束、全局id、CPU多核与GPU众核 程序分析题 10*2 给代码写结果、分析为什么会有这种结果 CPU多核 10*2 数据划分:明确每个部分处理的数据范围 任务并行:线程池实验 CUDA编程 15*2 具体的问题,设计网格与线程块,或者给了线程块,只需要设计网格; 主函数中的固定流程;关键在写核函数; 并行计算 并发与并行串行:单机单核,指令顺序执行。 并发:单机单核,指令在时间上并行执行,同一时间

CUDA实现并行编程

本文通过编写CUDA核函数,以矩阵转置等5个问题为例,利用GPU众核对大规模问题的求解加速。 矩阵转置 算法流程 将需要转置的矩阵存储到GPU内存中。 在GPU上分配空间存储转置后的矩阵。 定义CUDA核函数来实现矩阵转置。该核函数应该使用线程块和线程格的概念来处理矩阵中的所有元素。在每个线程块中,线程可以使用共享内存来处理数据。最后,利用全局内存将结果写回到GPU。 调用CUDA核函数以执行矩阵转置。 将转置后的矩阵从GPU内存复制到主机内存中。 释放GPU内存 代码实现在传统代码的基础上,利用共享内存优化访问
0%