引言
在上一篇博客 深入理解Attention机制中我们学习了《Attention Is All Your Need》论文中的前半部分–注意力机制,并通过手动计算来了解Attention机制底层的计算原理。今天这篇文章来深入学习论文的下半部分–Transformer结构。
一、Transformer模型概述 Transformer模型…
A demo of pandas , 数据清洗
data_pandas.csv:Models,col-0,col-1,col-2,col-3
A,0.1,,0.4,0.5
B,0.2,0.6,,0.1
C,0.6,,0.2,0.8
D,0.1,0.2,0.3,0.4import pandas as pd
import numpy as np#
# n 30
# m 5
# index ["line-{}".format(i) for i in ran…