首页
技术日记
编程
旅游
数码
登录
标签
Transformer
2023-CVPR-Patch-Mix Transformer for Unsupervised Domain Adaptation: A Game Perspective
一、研究背景 通过类别级对齐并生成伪标签可减轻域差异,常用的类别级对齐手段有度量学习、对抗性学习、最优传输。 交叉注意力可用于域对齐,但目标域伪标签的质量对交叉注意力的影响极大,而域差异极大的情况下难以生成高质量伪标签。 二、研究目标 通过
Mix
Transformer
PATCH
CVPR
GAME
admin
3月前
40
0
The Illustrated Transformer (Transformer可视化解读自译笔记)
图解Transformer Reference: The Illustrated Transformer 本文自译用于加深理解与印象。 关于注意力机制,可以参考先前的Seq2Seq Model with Attention Transf
译笔
Illustrated
Transformer
admin
3月前
41
0
如何训练一个简单的Transformer模型(附源码)李宏毅2025大模型-作业4
摘要: 一、作业目标:使用只有2层transformer的GPT-2,生成完整宝可梦图像。 二、源码&解析:使用提供的Transformer
模型
作业
源码
简单
Transformer
admin
3月前
57
0
Transformer实战(5)——Hugging Face环境配置与应用详解
Transformer实战(5)——Hugging Face环境配置与应用详解 0. 前言 1. 安装 transformers 1.1 安装 Anaconda 1.2 安装 TensorFlow、PyTorch 和 Transformer
详解
实战
环境
Transformer
face
admin
3月前
26
0
【即插即用模块】Transformer篇 | ArXiv 2025 | Iwin-Transformer,Swin-Transformer的进一步改进,可替代任意Trans块实现涨点改进创新
VX: shixiaodayyds,备注【即插即用】,添加即插即用模块交流群。 文章目录 模块出处 模块介绍 模块提出的动机(Motivation): 适用范围 模块代码及使用方式 模块出处 Paper:Iwin Transformer:
即用
即插
模块
Transformer
arxiv
admin
3月前
48
0
【论文阅读】【3d目标检测】Voxel Set Transformer: A Set-to-Set Approach to 3D Object Detection from Point Clouds
论文标题:Voxel Set Transformer: A Set-to-Set Approach to 3D Object Detection from Point Clouds cvpr2022 transformer用在点云上面逐渐
目标
论文
set
Voxel
Transformer
admin
4月前
55
0
【论文阅读】A Transformer-based Approach for Source Code Summarization
目录一、简介二、方法三、实验发表于 ACL 2020 地址:https:arxivpdf2005.00653.pdf 代码:https:githubwasiahmadNeuralC
论文
Based
Transformer
Approach
Code
admin
4月前
51
0
【论文笔记】A Transformer-based Approach for Source Code Summarization
A Transformer-based Approach for Source Code Summarization1. Introduction2. Approach2.1 ArchitectureSelf-AttentionCopy A
笔记
论文
Transformer
Based
Summarization
admin
4月前
45
0
windows系统配置swin transformer环境
由于之前装双系统的时候给ubuntu分配的内存比较小,装了各种环境之后就不够用了,所以想在windows环境下配置swin transformer,本以为是个简单的环境配置&
环境
系统配置
Windows
Transformer
Swin
admin
5月前
101
0
[综述笔记]Comprehensive review of Transformer-based models in neuroscience, neurology, and psychiatry
论文网址:Comprehensive review of Transformer‐based models in neuroscience, neurology, and psychiatry - Cong - 202
笔记
review
Transformer
Based
Comprehensive
admin
6月前
117
0
A Comprehensive Guide to Transformer-based Natural Language Processing with Examples
文章目录 A Comprehensive Guide to Transformer-based Natural Language Processing with Examples 结论与展望 A Comprehensive Guide to
Transformer
Based
Comprehensive
GUIDE
processing
admin
6月前
128
0
Transformer for Graphs: An Overview from Architecture Perspective 综述笔记(待更)
Transformer for GraphsIntroduction1、GA: GNNs as Auxiliary Modules直接将GNN加入Transformer框架里,然后根据GNN与Transforme
笔记
Graphs
Transformer
Overview
perspective
admin
6月前
126
0
图文并茂解释Transformer--The Illustrated Transformer翻译精简
原文链接https:jalammar.github.ioillustrated-transformer 所需知识储备: RNN, Seq2Seq序列模型,Residual残差计算... 自从Attention is All yo
图文并茂
Transformer
Illustrated
admin
6月前
109
0
图解Transformer | The Illustrated Transformer
文章目录写在最前边正文从高层面看图解张量现在我们来看一下编码器自注意力细说自注意力机制用矩阵计算self-attention多头注意力使用位置编码表示序列的位置残差解码器最后的线性层和softmax层训练过程概述损失函数更多内容Jay Al
Transformer
Illustrated
admin
6月前
122
0
transformer的理解思路
整理transformer容易理解(可能质量不会太好,但肯定容易理解)的一些文章1.embedinghttps:chriszou20190629embedding-explained通俗的方式解释了
思路
Transformer
admin
6月前
75
0
博文The Illustrated Transformer 的PDF格式
广受好评的The Illustrated Transformer一文以图解的形式清晰讲解了Transformer的各个细节,但原博是外网的,我在网上搜了下并没有发现该篇文章的PDF格式&#
博文
格式
Transformer
Illustrated
pdf
admin
6月前
109
0
DL之Transformer:《The Illustrated Transformer—图解Transformer》翻译与解读
DL之Transformer:《The Illustrated Transformer—图解Transformer》翻译与解读 目录 Paper:《The Illustrated Transformer》翻译与解读 1、The Illu
dl
Transformer
Illustrated
admin
6月前
89
0
《Incremental Transformer Structure Enhanced Image Inpainting with Masking Positional Encoding》
发表于CVPR2022!!! 代码链接:https:githubDQiaoleZITS_inpainting 1. 问题 近年来,图像修复取得了显著的进展。然而,如何恢复纹理逼真、结构合理的图像仍然是一个难题。 1)卷积神经网络的
Structure
Enhanced
Incremental
Transformer
Image
admin
7月前
142
0
Structure-Aware Transformer for Graph Representation Learning 简单笔记
SAT 2022Motivations1、Transformer with positional encoding do not necessarily capture structural similarity between the
简单
笔记
Transformer
Aware
Structure
admin
7月前
109
0
Structure-Aware Transformer for Graph Representation Learning
Structure-Aware Transformer for Graph Representation Learning(ICML22)摘要Transformer 架构最近在图表示学习中受到越
Transformer
Aware
Structure
learning
Representation
admin
7月前
120
0
1
2
»