Add spaces by HeySpace.
Browse files- Thinking Like Transformers-cn.md +25 -45
Thinking Like Transformers-cn.md
CHANGED
@@ -1,5 +1,4 @@
|
|
1 |
|
2 |
-
|
3 |
- [论文](https://arxiv.org/pdf/2106.06981.pdf) 来自 Gail Weiss, Yoav Goldberg,Eran Yahav.
|
4 |
- 博客参考 [Sasha Rush](https://rush-nlp.com/) 和 [Gail Weiss](https://sgailw.cswp.cs.technion.ac.il/)
|
5 |
- 库和交互 Notebook: [srush/raspy](https://github.com/srush/RASPy)
|
@@ -14,9 +13,9 @@ Transformer 模型是 AI 系统的基础。已经有了数不清的关于 "Trans
|
|
14 |
|
15 |
但是这些图表没有提供任何直观的计算该模型的框架表示。当研究者对于 Transformer 如何工作抱有兴趣时,直观的获取他运行的机制变得十分有用。
|
16 |
|
17 |
-
[像Transformers一样思考](https://arxiv.org/pdf/2106.06981.pdf)提出 transformer 类计算框架。这个框架直接计算和模仿 Transformer 计算。使用 [RASP](https://github.com/tech-srl/RASP) 编程语言,使每个程序编译成一个特殊的 Transformer 。
|
18 |
|
19 |
-
在这篇博客中,我用 python 复现了 RASP 的变体(
|
20 |
|
21 |
```bash
|
22 |
!pip install git+https://github.com/srush/RASPy
|
@@ -49,7 +48,7 @@ flip()
|
|
49 |
|
50 |
### 输入
|
51 |
|
52 |
-
在一个 Transformer 中,基本曾是一个模型的前馈输入。这个输入通常包含原始的token和位置信息。
|
53 |
|
54 |
<center>
|
55 |
|
@@ -57,7 +56,7 @@ flip()
|
|
57 |
|
58 |
</center>
|
59 |
|
60 |
-
在代码中, tokens 的特征表示最简单的 transform 。他返回经过模型的 tokens 。默认输入序列是" hello "
|
61 |
|
62 |
```python
|
63 |
tokens
|
@@ -81,7 +80,6 @@ tokens.input([5, 2, 4, 5, 2, 2])
|
|
81 |
|
82 |
</center>
|
83 |
|
84 |
-
|
85 |
作为 Transformers ,我们不能直接接受这些序列的位置。但是为了模拟位置嵌入,我们可以获取位置的索引
|
86 |
|
87 |
```python
|
@@ -105,7 +103,6 @@ sop.input("goodbye")
|
|
105 |
|
106 |
</center>
|
107 |
|
108 |
-
|
109 |
### 前馈网络
|
110 |
|
111 |
经过输入层后,我们到达了前馈网络层。在 Transformer 中,这一步可以对于序列的每一个元素独立的应用数学运算。
|
@@ -141,7 +138,7 @@ model.input([1, 2, 3, 5, 2])
|
|
141 |
|
142 |
</center>
|
143 |
|
144 |
-
该运算可以组合多个 Transforms
|
145 |
|
146 |
```python
|
147 |
model = tokens - 5 + indices
|
@@ -154,7 +151,6 @@ model.input([1, 2, 3, 5, 2])
|
|
154 |
|
155 |
</center>
|
156 |
|
157 |
-
|
158 |
```python
|
159 |
(tokens == "l") | (indices == 1)
|
160 |
```
|
@@ -165,7 +161,6 @@ model.input([1, 2, 3, 5, 2])
|
|
165 |
|
166 |
</center>
|
167 |
|
168 |
-
|
169 |
我们提供了一些辅助函数让写 transforms 变得更简单,举例来说,where 提供了一个类似 if 功能的结构。
|
170 |
|
171 |
```python
|
@@ -178,7 +173,7 @@ where((tokens == "h") | (tokens == "l"), tokens, "q")
|
|
178 |
|
179 |
</center>
|
180 |
|
181 |
-
`map
|
182 |
|
183 |
```python
|
184 |
atoi = tokens.map(lambda x: ord(x) - ord('0'))
|
@@ -191,9 +186,7 @@ atoi.input("31234")
|
|
191 |
|
192 |
</center>
|
193 |
|
194 |
-
|
195 |
-
|
196 |
-
当连接了这些 transforms ,可以更容易的编写功能。举例来说,下面是应用了 where 和 atoi 和加2的操作
|
197 |
|
198 |
```python
|
199 |
def atoi(seq=tokens):
|
@@ -218,7 +211,7 @@ op.input("02-13")
|
|
218 |
|
219 |
</center>
|
220 |
|
221 |
-
我们开始定义 Key 和 query 的标记。key 和 Query 可以直接从上面的 transforms 创建。举个例子,如果我们想要定义一个key我们称作key。
|
222 |
|
223 |
```python
|
224 |
key(tokens)
|
@@ -230,7 +223,6 @@ key(tokens)
|
|
230 |
|
231 |
</center>
|
232 |
|
233 |
-
|
234 |
对于 query 也一样
|
235 |
|
236 |
```python
|
@@ -243,7 +235,6 @@ query(tokens)
|
|
243 |
|
244 |
</center>
|
245 |
|
246 |
-
|
247 |
标量可以作为 key 或 query 使用。他们会广播���基础序列的长度。
|
248 |
|
249 |
```python
|
@@ -256,7 +247,6 @@ query(1)
|
|
256 |
|
257 |
</center>
|
258 |
|
259 |
-
|
260 |
我们创建了筛选器来应用 key 和 query 之间的操作。这对应于一个二进制矩阵,指示每个 query 要关注哪个 key。与 Transformers 不用,这个注意力矩阵未加入权重。
|
261 |
|
262 |
```python
|
@@ -270,9 +260,8 @@ eq
|
|
270 |
|
271 |
</center>
|
272 |
|
273 |
-
|
274 |
一些例子:
|
275 |
-
- 选择器的匹配位置偏移1。
|
276 |
|
277 |
```python
|
278 |
offset = (key(indices) == query(indices - 1))
|
@@ -285,7 +274,6 @@ offset
|
|
285 |
|
286 |
</center>
|
287 |
|
288 |
-
|
289 |
- key 早于 query 的选择器。
|
290 |
|
291 |
```python
|
@@ -299,7 +287,6 @@ before
|
|
299 |
|
300 |
</center>
|
301 |
|
302 |
-
|
303 |
- key 晚于 query 的选择器。
|
304 |
|
305 |
```python
|
@@ -313,7 +300,7 @@ after
|
|
313 |
|
314 |
</center>
|
315 |
|
316 |
-
选择器可以通过布尔操作合并。比如,这个选择器befoe和eq做合并,我们通过在矩阵中包含一对键和值来显示这一点。
|
317 |
|
318 |
```python
|
319 |
before & eq
|
@@ -325,11 +312,10 @@ before & eq
|
|
325 |
|
326 |
</center>
|
327 |
|
328 |
-
|
329 |
## 使用注意力机制
|
330 |
给一个注意力选择器,我们可以提供一个序列值做聚合操作。我们通过累加那些选择器选过的真值做聚合。
|
331 |
|
332 |
-
(笔记:在原始论文中,他们使用一个平均聚合操作并且展示了一个巧妙的结构,其中平均聚合能够代表总和计算。RASPy 默认情况下使用累加来使其简单化并避免碎片化。实际上,这意味着 raspy 可能低估了将基于平均模型转换为2倍的层数)
|
333 |
|
334 |
注意聚合操作使我们能够计算直方图之类的功能。
|
335 |
|
@@ -351,8 +337,7 @@ before & eq
|
|
351 |
|
352 |
</center>
|
353 |
|
354 |
-
|
355 |
-
一些注意力机制操作甚至不需要用到输入 token 。举例来说,去计算序列长度,我们创建一个" select all "的注意力筛选器并且给他赋值。
|
356 |
|
357 |
```python
|
358 |
length = (key(1) == query(1)).value(1)
|
@@ -366,7 +351,6 @@ length
|
|
366 |
|
367 |
</center>
|
368 |
|
369 |
-
|
370 |
这里有更多复杂的例子,下面将一步一步展示。(这有点像做采访一样)
|
371 |
|
372 |
我们想要计算一个序列的相邻值的和。首先我们向前截断。
|
@@ -436,7 +420,6 @@ cumsum().input([3, 1, -2, 3, 1])
|
|
436 |
|
437 |
</center>
|
438 |
|
439 |
-
|
440 |
### 层
|
441 |
这个语言支持编译更加复杂的 transforms。他同时通过跟踪每一个运算操作计算层。
|
442 |
|
@@ -446,8 +429,7 @@ cumsum().input([3, 1, -2, 3, 1])
|
|
446 |
|
447 |
</center>
|
448 |
|
449 |
-
|
450 |
-
这里有个2层 transform 的例子,第一个对应于计算长度,第二个对应于累积总和。
|
451 |
|
452 |
```python
|
453 |
x = cumsum(length - indices)
|
@@ -460,8 +442,7 @@ x.input([3, 2, 3, 5])
|
|
460 |
|
461 |
</center>
|
462 |
|
463 |
-
|
464 |
-
## 用transformers进行编程
|
465 |
|
466 |
使用这个函数库,我们可以编写完成一个复杂任务
|
467 |
|
@@ -469,13 +450,13 @@ Gail Weiss,给我一个极其挑战的问题来打破这个步骤
|
|
469 |
|
470 |
我们可以加载一个添加任意长度数字的 Transformer 吗?
|
471 |
|
472 |
-
例: 给一个字符串 "19492+23919"
|
473 |
|
474 |
如果你想自己尝试,我们提供了一个[版本](https://colab.research.google.com/github/srush/raspy/blob/main/Blog.ipynb)你可以自己试试。
|
475 |
|
476 |
-
### 挑战一
|
477 |
|
478 |
-
加载一个在索引i处全元素都有值的序列
|
479 |
|
480 |
```python
|
481 |
def index(i, seq=tokens):
|
@@ -490,10 +471,9 @@ index(1)
|
|
490 |
|
491 |
</center>
|
492 |
|
493 |
-
|
494 |
### 挑战二 :转换
|
495 |
|
496 |
-
通过i位置将所有 token 移动到右侧。
|
497 |
|
498 |
```python
|
499 |
def shift(i=1, default="_", seq=tokens):
|
@@ -530,7 +510,7 @@ minimum()([5,3,2,5,2])
|
|
530 |
|
531 |
### 挑战四:第一索引
|
532 |
|
533 |
-
计算有 token q 的第一索引(2层)
|
534 |
|
535 |
```python
|
536 |
def first(q, seq=tokens):
|
@@ -546,7 +526,7 @@ first("l")
|
|
546 |
|
547 |
### 挑战五 :右对齐
|
548 |
|
549 |
-
右对齐一个填充序列。例: " ralign().inputs(’xyz___‘) =’—xyz’ "(2层)
|
550 |
|
551 |
```python
|
552 |
def ralign(default="-", sop=tokens):
|
@@ -564,7 +544,7 @@ ralign()("xyz__")
|
|
564 |
|
565 |
### 挑战六:分离
|
566 |
|
567 |
-
把一个序列在 token "v" 处分离成两部分然后右对齐(2层)
|
568 |
|
569 |
```python
|
570 |
def split(v, i, sop=tokens):
|
@@ -597,7 +577,7 @@ split("+", 0)("xyz+zyr")
|
|
597 |
|
598 |
### 挑战七:滑动
|
599 |
|
600 |
-
将特殊 token “ <”替换为最接近的“ <”value.(2层)
|
601 |
|
602 |
```python
|
603 |
def slide(match, seq=tokens):
|
@@ -622,11 +602,11 @@ slide(tokens != "<").input("xxxh<<<l")
|
|
622 |
add().input("683+345")
|
623 |
```
|
624 |
|
625 |
-
0
|
626 |
|
627 |
>“683+345” => [0, 0, 0, 9, 12, 8]
|
628 |
|
629 |
-
1. 计算携带条款。三种可能性:1个携带,0
|
630 |
|
631 |
>[0, 0, 0, 9, 12, 8] => “00<100”
|
632 |
|
@@ -636,7 +616,7 @@ add().input("683+345")
|
|
636 |
|
637 |
3. 完成加法
|
638 |
|
639 |
-
这些都是1行代码。完整的系统是6个注意力机制。(尽管 Gail 说,如果你足够细心则可以在5个中完成!)。
|
640 |
|
641 |
```python
|
642 |
def add(sop=tokens):
|
|
|
1 |
|
|
|
2 |
- [论文](https://arxiv.org/pdf/2106.06981.pdf) 来自 Gail Weiss, Yoav Goldberg,Eran Yahav.
|
3 |
- 博客参考 [Sasha Rush](https://rush-nlp.com/) 和 [Gail Weiss](https://sgailw.cswp.cs.technion.ac.il/)
|
4 |
- 库和交互 Notebook: [srush/raspy](https://github.com/srush/RASPy)
|
|
|
13 |
|
14 |
但是这些图表没有提供任何直观的计算该模型的框架表示。当研究者对于 Transformer 如何工作抱有兴趣时,直观的获取他运行的机制变得十分有用。
|
15 |
|
16 |
+
[像 Transformers 一样思考](https://arxiv.org/pdf/2106.06981.pdf) 提出 transformer 类计算框架。这个框架直接计算和模仿 Transformer 计算。使用 [RASP](https://github.com/tech-srl/RASP) 编程语言,使每个程序编译成一个特殊的 Transformer 。
|
17 |
|
18 |
+
在这篇博客中,我用 python 复现了 RASP 的变体 (RASPy)。该语言大致与原始版本相当,但是多了一些我认为很有趣的变化。通过这些语言,作者 Gail Weiss 的工作,提供了一套具有挑战性的有趣且正确的方式可以帮助了解其工作原理。
|
19 |
|
20 |
```bash
|
21 |
!pip install git+https://github.com/srush/RASPy
|
|
|
48 |
|
49 |
### 输入
|
50 |
|
51 |
+
在一个 Transformer 中,基本曾是一个模型的前馈输入。这个输入通常包含原始的 token 和位置信息。
|
52 |
|
53 |
<center>
|
54 |
|
|
|
56 |
|
57 |
</center>
|
58 |
|
59 |
+
在代码中, tokens 的特征表示最简单的 transform 。他返回经过模型的 tokens 。默认输入序列是 " hello "
|
60 |
|
61 |
```python
|
62 |
tokens
|
|
|
80 |
|
81 |
</center>
|
82 |
|
|
|
83 |
作为 Transformers ,我们不能直接接受这些序列的位置。但是为了模拟位置嵌入,我们可以获取位置的索引
|
84 |
|
85 |
```python
|
|
|
103 |
|
104 |
</center>
|
105 |
|
|
|
106 |
### 前馈网络
|
107 |
|
108 |
经过输入层后,我们到达了前馈网络层。在 Transformer 中,这一步可以对于序列的每一个元素独立的应用数学运算。
|
|
|
138 |
|
139 |
</center>
|
140 |
|
141 |
+
该运算可以组合多个 Transforms . 举个例子,以上述的 token 和 indices 为例,这里可以类别 Transformer 可以跟踪多个片段信息
|
142 |
|
143 |
```python
|
144 |
model = tokens - 5 + indices
|
|
|
151 |
|
152 |
</center>
|
153 |
|
|
|
154 |
```python
|
155 |
(tokens == "l") | (indices == 1)
|
156 |
```
|
|
|
161 |
|
162 |
</center>
|
163 |
|
|
|
164 |
我们提供了一些辅助函数让写 transforms 变得更简单,举例来说,where 提供了一个类似 if 功能的结构。
|
165 |
|
166 |
```python
|
|
|
173 |
|
174 |
</center>
|
175 |
|
176 |
+
`map` 使我们可以定义自己的操作,例如一个字符串以 int 转换。(用户应谨慎使用可以使用的简单神经网络计算的操作)
|
177 |
|
178 |
```python
|
179 |
atoi = tokens.map(lambda x: ord(x) - ord('0'))
|
|
|
186 |
|
187 |
</center>
|
188 |
|
189 |
+
当连接了这些 transforms ,可以更容易的编写功能。举例来说,下面是应用了 where 和 atoi 和加 2 的操作
|
|
|
|
|
190 |
|
191 |
```python
|
192 |
def atoi(seq=tokens):
|
|
|
211 |
|
212 |
</center>
|
213 |
|
214 |
+
我们开始定义 Key 和 query 的标记。key 和 Query 可以直接从上面的 transforms 创建。举个例子,如果我们想要定义一个 key 我们称作 key。
|
215 |
|
216 |
```python
|
217 |
key(tokens)
|
|
|
223 |
|
224 |
</center>
|
225 |
|
|
|
226 |
对于 query 也一样
|
227 |
|
228 |
```python
|
|
|
235 |
|
236 |
</center>
|
237 |
|
|
|
238 |
标量可以作为 key 或 query 使用。他们会广播���基础序列的长度。
|
239 |
|
240 |
```python
|
|
|
247 |
|
248 |
</center>
|
249 |
|
|
|
250 |
我们创建了筛选器来应用 key 和 query 之间的操作。这对应于一个二进制矩阵,指示每个 query 要关注哪个 key。与 Transformers 不用,这个注意力矩阵未加入权重。
|
251 |
|
252 |
```python
|
|
|
260 |
|
261 |
</center>
|
262 |
|
|
|
263 |
一些例子:
|
264 |
+
- 选择器的匹配位置偏移 1。
|
265 |
|
266 |
```python
|
267 |
offset = (key(indices) == query(indices - 1))
|
|
|
274 |
|
275 |
</center>
|
276 |
|
|
|
277 |
- key 早于 query 的选择器。
|
278 |
|
279 |
```python
|
|
|
287 |
|
288 |
</center>
|
289 |
|
|
|
290 |
- key 晚于 query 的选择器。
|
291 |
|
292 |
```python
|
|
|
300 |
|
301 |
</center>
|
302 |
|
303 |
+
选择器可以通过布尔操作合并。比如,这个选择器 befoe 和 eq 做合并,我们通过在矩阵中包含一对键和值来显示这一点。
|
304 |
|
305 |
```python
|
306 |
before & eq
|
|
|
312 |
|
313 |
</center>
|
314 |
|
|
|
315 |
## 使用注意力机制
|
316 |
给一个注意力选择器,我们可以提供一个序列值做聚合操作。我们通过累加那些选择器选过的真值做聚合。
|
317 |
|
318 |
+
(笔记:在原始论文中,他们使用一个平均聚合操作并且展示了一个巧妙的结构,其中平均聚合能够代表总和计算。RASPy 默认情况下使用累加来使其简单化并避免碎片化。实际上,这意味着 raspy 可能低估了将基于平均模型转换为 2 倍的层数)
|
319 |
|
320 |
注意聚合操作使我们能够计算直方图之类的功能。
|
321 |
|
|
|
337 |
|
338 |
</center>
|
339 |
|
340 |
+
一些注意力机制操作甚至不需要用到输入 token 。举例来说,去计算序列长度,我们创建一个 " select all " 的注意力筛选器并且给他赋值。
|
|
|
341 |
|
342 |
```python
|
343 |
length = (key(1) == query(1)).value(1)
|
|
|
351 |
|
352 |
</center>
|
353 |
|
|
|
354 |
这里有更多复杂的例子,下面将一步一步展示。(这有点像做采访一样)
|
355 |
|
356 |
我们想要计算一个序列的相邻值的和。首先我们向前截断。
|
|
|
420 |
|
421 |
</center>
|
422 |
|
|
|
423 |
### 层
|
424 |
这个语言支持编译更加复杂的 transforms。他同时通过跟踪每一个运算操作计算层。
|
425 |
|
|
|
429 |
|
430 |
</center>
|
431 |
|
432 |
+
这里有个 2 层 transform 的例子,第一个对应于计算长度,第二个对应于累积总和。
|
|
|
433 |
|
434 |
```python
|
435 |
x = cumsum(length - indices)
|
|
|
442 |
|
443 |
</center>
|
444 |
|
445 |
+
## 用 transformers 进行编程
|
|
|
446 |
|
447 |
使用这个函数库,我们可以编写完成一个复杂任务
|
448 |
|
|
|
450 |
|
451 |
我们可以加载一个添加任意长度数字的 Transformer 吗?
|
452 |
|
453 |
+
例: 给一个字符串 "19492+23919", 我们可以加载正确的输出吗?
|
454 |
|
455 |
如果你想自己尝试,我们提供了一个[版本](https://colab.research.google.com/github/srush/raspy/blob/main/Blog.ipynb)你可以自己试试。
|
456 |
|
457 |
+
### 挑战一 : 选择一个给定的索引
|
458 |
|
459 |
+
加载一个在索引 i 处全元素都有值的序列
|
460 |
|
461 |
```python
|
462 |
def index(i, seq=tokens):
|
|
|
471 |
|
472 |
</center>
|
473 |
|
|
|
474 |
### 挑战二 :转换
|
475 |
|
476 |
+
通过 i 位置将所有 token 移动到右侧。
|
477 |
|
478 |
```python
|
479 |
def shift(i=1, default="_", seq=tokens):
|
|
|
510 |
|
511 |
### 挑战四:第一索引
|
512 |
|
513 |
+
计算有 token q 的第一索引 (2 层)
|
514 |
|
515 |
```python
|
516 |
def first(q, seq=tokens):
|
|
|
526 |
|
527 |
### 挑战五 :右对齐
|
528 |
|
529 |
+
右对齐一个填充序列。例: " ralign().inputs(’xyz___‘) =’—xyz’ "(2 层)
|
530 |
|
531 |
```python
|
532 |
def ralign(default="-", sop=tokens):
|
|
|
544 |
|
545 |
### 挑战六:分离
|
546 |
|
547 |
+
把一个序列在 token "v" 处分离成两部分然后右对齐 (2 层)
|
548 |
|
549 |
```python
|
550 |
def split(v, i, sop=tokens):
|
|
|
577 |
|
578 |
### 挑战七:滑动
|
579 |
|
580 |
+
将特殊 token “ <”替换为最接近的“ <”value.(2 层)
|
581 |
|
582 |
```python
|
583 |
def slide(match, seq=tokens):
|
|
|
602 |
add().input("683+345")
|
603 |
```
|
604 |
|
605 |
+
0. 分成两部分。转制成整形。加入
|
606 |
|
607 |
>“683+345” => [0, 0, 0, 9, 12, 8]
|
608 |
|
609 |
+
1. 计算携带条款。三种可能性:1 个携带,0 不携带,< 也许有携带。
|
610 |
|
611 |
>[0, 0, 0, 9, 12, 8] => “00<100”
|
612 |
|
|
|
616 |
|
617 |
3. 完成加法
|
618 |
|
619 |
+
这些都是 1 行代码。完整的系统是 6 个注意力机制。(尽管 Gail 说,如果你足够细心则可以在 5 个中完成!)。
|
620 |
|
621 |
```python
|
622 |
def add(sop=tokens):
|