首页
技术日记
编程
旅游
数码
登录
标签
Transformer
Transformer作者:指令型智能体的构建之法
来源 | The Robot Brains Podcast OneFlow编译 翻译|徐佳渝、贾川、杨婷 2017年,Google发布的《Attention Is All You Need》论文提
之法
指令
智能
作者
Transformer
admin
7月前
124
0
从零实现Transformer的简易版与强大版:从300多行到3000多行
前言 最近一直在做类ChatGPT项目的部署 微调,关注比较多的是两个:一个LLaMA,一个ChatGLM,会发现有不少模型是基于这两个模型去做微调
强大
简易版
Transformer
多行
多行到
admin
7月前
80
0
大模型微调实战之 Transformer 强化学习(TRL Reinforcement Learning)(三)Proximal Policy Optimization
大模型微调实战之 Transformer 强化学习(TRL Reinforcement Learning)(三)Proximal Policy Optimization Proximal Policy Optimization 这是一个
实战
模型
TRL
Transformer
Reinforcement
admin
7月前
76
0
Transformer实战——Hugging Face环境配置与应用详解
Transformer实战——Hugging Face环境配置与应用详解0. 前言1. 安装 transformers1.1 安装 Anaconda1.2 安装 TensorFlow、PyTorch 和 Transformer1.3 使用
详解
实战
环境
Transformer
face
admin
7月前
90
0
Transformer课程 业务对话机器人Rasa 3.x 写入会话数据(Writing Conversation Data)
Transformer课程 业务对话机器人Rasa 3.x 写入会话数据(Writing Conversation Data) 对话数据包括构成Rasa助理对话管理模型训练数据的故事和规则。写得
机器人
课程
业务
数据
Transformer
admin
7月前
83
0
Windows10装mmcv-full(用于Swin Transformer)
1 为防止其他问题,先装C 生成工具 按照这个文章,先装Microsoft C Build Tools中的C 生成工具。 2 根据你的cuda版本和pytorch版本下载whl文件 我的是c
mmcv
full
Transformer
Swin
admin
7月前
66
0
SAMformer的浅层轻量级Transformer模型
论文《Unlocking the Potential of Transformers in Time Series Forecasting》提出了一种名为SAMformer的浅层轻量级Transformer模型,旨在解
模型
浅层
SAMformer
Transformer
admin
8月前
65
0
Transformer论文阅读(一): Attention is all you need
橙色--目的、结论、优点;洋红--突破性重要内容或结论,对我来说特别急需紧要的知识点;红色--特别重要的内容;黄色--重要内容;绿
论文
Transformer
Attention
admin
2025-1-30
87
0
chatGPT 背后的技术 之 Transformer 详解
chatGPT 来自于 GPT3.5, GPT3.5 是在GPT3 的 基础上做微调,而GPT3基于GPT2, GPT2基于GPT1, GPT1 最终是 基于 Transformer。 Transformer 其实不仅
详解
技术
ChatGpt
Transformer
admin
2024-12-23
90
0
chatGTP的全称Chat Generative Pre-trained Transformer
[db:摘要]
全称
Chat
chatGTP
Generative
Transformer
admin
2024-8-23
102
0
Transformer
Transformer
admin
2023-6-19
83
0
«
1
2