学文の博客🥝
无题
问题 { “ClassificationSystem” : [ { “CName” : “背景值”, “Code” : “0”, “Color” : “0,0,0”, “EName” : “nodata” }, { “CName” : “旱地”, “Code” : “12”, “Color” : “255,215,0”, “EName” : “dry farm” } ] } { “ClassificationSystem” : [ { “CName” : “背景值”, “Code” : “0”, “Color” : “0,0,0”, “EName” : “nodata” }, { “CName” : “旱地”, “Code” : “12”, “Color” : “255,215,0”, “EName” : “dry farm” } ] } 里面有两个相同的"ClassificationSystem",只要一个 使用 json.JSONDecoder 手动解析 1234567import jsonwith open(file_path, 'r' ...
python开发7Django
Session Django项目默认启动Session。可以保存在数据库或内存,也可以混合存储 将session放入redis,放入内存 面向对象 三大特性 封装:把属性和方法捆绑在一起,对外隐藏实现细节(类(Class)方法来封装属性和方法) 继承:允许一个子类获取父类的属性和方法,同时可以扩展和修改它们(子类重写方法,多继承(class view(a, b))) 多态:同一操作作用于不同的类的实例,会有不同的执行结果(使用相同方法调用不同类的实例,结果不同) 路由匹配类视图逻辑 客户端发出请求,到服务器的总路由,再分配到子路由上,get()和post()方法发出响应到客户端 多继承 一个类可以同时继承多个父类,遵循MEO(方法解析顺序) 1可用(类名.___mro__) 或 类名.mro() MRO顺序 中间件 在每次请求和响应之间执行的方法: 12345__init__():初始化中间件时,自动调用一次process_request():请求前process_response():响应前 后端服务的项目架构 数据存储服务:mysql 缓存服务:Redis ...
关于python的一些问题
python问题 相对引用问题 from ..modeling.image_encoder import DTEncoder 123``` shellImportError: attempted relative import with no known parent package 解决: 1在上一级设为Sources,要引用下级文件直接用绝对路径引用
MEA-EFFormer
MEA-EFFormer:基于增强特征Transformer的多尺度有效注意力算法及其在高光谱图像分类中的应用 主旨 考虑光谱与空间特征的深层联系 创新点 局部二进制模式(LBP)提取局部空间特征 该方法最早在1996年提出,是纹理分类和人脸识别领域的主要特征提取方法之一。 优势: 1)计算复杂度低; 2)无需训练学习; 3)光照不变性; 4)灰度不变性; 5)旋转不变性。 方法:以3×3矩阵中心点为阈值,四周比它大的或等于它的值设为1,比它小的设为0,从x轴的正方向出发逆时针转动,2的指数从0到7设计相同形状的3×3矩阵并将二进制转为十进制数字,两个矩阵相同位置的元素相乘,得到一个局部二进制模式。 其中S_lbp是相邻像素的二进制位,I(x,y)是相邻像素的灰度值,并且I_c是中心像素的灰度值。P是邻域中像素的数量,R是邻域的半径,并且(x_p,y_p)是邻域中像素的坐标。 混合二维卷积(2D-CNN)和三维卷积(3D-CNN)提取局部特征,Transformer提取全局特征 引用一篇论文研究发现二维卷积擅长利用空间特征,但不擅长利用光谱信息;三维卷积同时擅长利用空 ...
bug
FileNotFoundError: [WinError 3] 系统找不到指定的路径。: ‘e:/SegmentationClass’ 12VOCdevkit_path = "e:/Datasets/LoveDA"segfilepath = os.path.join(VOCdevkit_path, '/SegmentationClass') '/SegmentationClass’加入“/”,从最后一个以”/”开头的参数开始拼接,之前的参数全部丢弃。 输出:e:/SegmentationClass 正确输入:'SegmentationClass’会自动填补“/”
ViT模型详解
一、网络结构 二、详情 1、补丁嵌入 原始图像:H×W×C,高度,宽度,通道数 补丁(patch):N×(P^2×C), N=H×W/(P×P)叫补丁数或者输入序列长度 (P,P)叫补丁的分辨率 将图像分割成多个补丁(patch),将补丁平铺成一维数据格式,再通过线性投影将补丁平坦化映射到低维空间 1Rearrange('b c (h p1) (w p2) -> b (h w) (p1 p2 c)', p1=patch_height, p2=patch_width) 2、位置嵌入 添加位置编码表示两个补丁之间的距离,即添加了补丁的位置信息 网络自动学习 1self.pos_embedding = nn.Parameter(torch.randn(1, num_patches + 1, dim)) sin-cos规则 将向量的维度切分为奇数行和偶数行 偶数行采用sin函数编码,奇数行采用cos函数编码 然后按照原始行号拼接 12345678910def get_position_angle_vec(position): # hi ...
minconda常用命令
一、基础 查看版本 1conda --version 查看环境 1conda config --show 创建环境 1conda create -n env_name python=3.8 激活环境 1conda activate env_name 或 1activate env_name 二、安装pytorch 查看CUDA版本 1nvidia-smi cuda 12.1 1conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia 1pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
VisionTransformer快速指南-理论和代码
0、ViT简介 1、输入嵌入
FCN语义分割的开山之作
一、深度学习代表问题 不匹配关系:SPP,ASPP、PSPNet、GFN、GCN等 只注重局部纹理,不考虑全局关系,而将对象错分。 不寻常类:RedNet、RDFNet 对象纹理与背景颜色纹理相似或相同,难以区分。 二、基础概念 1.1、conv卷积 过滤器 结果第一个数:4=1x1+1x0+1x1+0x0+1x1+1x0+0x1+0x0+1x1 1.2、反卷积 2、maxpool最大池化 若池化使用的滤波器是2x2,则取该对应区域内最大像素值替代该像素值。 3、感受域(感受野) stride越大,感受野越大,保留的信息越少 stride越小,感受野越少,保留的细节越多 4、端到端训练 输入是原始图像,输出是预测图像,两者大小相同。传统方式是输入是图像,输出是概率值。 三、论文精读 1、论文摘要精读结构 卷积神经网络是什么,讲整个大背景的概述。 我们的核心观点是什么。 我们设计的神经网络能达到什么效果,有什么样的作用和功能。 为了实现这个功能我们做了什么步骤,及其创新点。 我们的模型在哪些数据集上跑出了好的结果。 2、训练技巧
博客bug
1、ssh: connect to host github.com port 22: Connection timed out 原因:22端口被占用 解决:在.ssh下面建立config文件,内容如下:注意congig无后缀名!(可以直接复制另外两个无后缀名的文件然后直接改内容即可) 12345678910111213Host github.comUser gitHostname ssh.github.comPreferredAuthentications publickeyIdentityFile ~/.ssh/id_rsaPort 443 Host gitlab.comHostname altssh.gitlab.comUser gitPort 443PreferredAuthentications publickeyIdentityFile ~/.ssh/id_rsa 最后使用下列代码验证,出现You've successfully authenticated, but GitHub does not provide shell access.,则成功连接。 1ssh -T gi ...
Transformer
1、Transformer架构 采用编码器-解码器架构 transformer是纯基于注意力机制 $$ Attention(Q,K,V) = softmax(\frac {QK^T}{\sqrt{d_k}})V $$ Q(query)查询序列 K(key)待查序列 V(value)自身含义编码序列 Q和K进行点乘(内积),点乘的结果是一个向量在另一向量投影的长度,它是一个标量,它可以反映两个向量的相似度,两个向量点乘结果越大,它们的相似度越高,距离越近,越关注。 为了防止其结果过大,再除以$\sqrt {d_k}$ ,也就是K向量的维度。 再使用Softmax回归将结果归一化为概率分布,乘以V就得到了加权求和形式。 2、网络结构 2.1 encoding 部分 位置编码 多头注意力机制 前馈神经网络 其中,Add表示残差连接,Norm表示layer normalize(层归一化) 2.2 decoding部分 Mask(掩码) 线性层和softmax层 线性层相当于一个全连接神经网络
小样本分类
关于小样本分类的一些想法 切入点 通过数据增强方法增加训练集样本数量,如图像翻转 通过迁移学习的预训练方法,在预训练模型的训练的权重下继续训练。
avatar
🐟认真摸鱼中
学文の博客🥝
Future is now 🍭🍭🍭
前往小窝
公告栏
wenblog.org.edu.kg | 
alan-pro.github.io
🍧欢迎访问🍧
小站资讯
文章数目 :
38
本站总字数 :
5.1w
本站访客数 :
本站总访问量 :
最后更新时间 :
空降评论复制本文地址
随便逛逛昼夜切换关于博客美化设置切换全屏打印页面