Datasets:

Modalities:
Image
Size:
< 1K
Libraries:
Datasets
License:
chenglu commited on
Commit
ed19833
1 Parent(s): 2252c65

Add spaces by HeySpace.

Browse files
Files changed (1) hide show
  1. Thinking Like Transformers-cn.md +25 -45
Thinking Like Transformers-cn.md CHANGED
@@ -1,5 +1,4 @@
1
 
2
-
3
  - [论文](https://arxiv.org/pdf/2106.06981.pdf) 来自 Gail Weiss, Yoav Goldberg,Eran Yahav.
4
  - 博客参考 [Sasha Rush](https://rush-nlp.com/) 和 [Gail Weiss](https://sgailw.cswp.cs.technion.ac.il/)
5
  - 库和交互 Notebook: [srush/raspy](https://github.com/srush/RASPy)
@@ -14,9 +13,9 @@ Transformer 模型是 AI 系统的基础。已经有了数不清的关于 "Trans
14
 
15
  但是这些图表没有提供任何直观的计算该模型的框架表示。当研究者对于 Transformer 如何工作抱有兴趣时,直观的获取他运行的机制变得十分有用。
16
 
17
- [像Transformers一样思考](https://arxiv.org/pdf/2106.06981.pdf)提出 transformer 类计算框架。这个框架直接计算和模仿 Transformer 计算。使用 [RASP](https://github.com/tech-srl/RASP) 编程语言,使每个程序编译成一个特殊的 Transformer 。
18
 
19
- 在这篇博客中,我用 python 复现了 RASP 的变体( RASPy )。该语言大致与原始版本相当,但是多了一些我认为很有趣的变化。通过这些语言,作者 Gail Weiss 的工作,提供了一套具有挑战性的有趣且正确的方式可以帮助了解其工作原理。
20
 
21
  ```bash
22
  !pip install git+https://github.com/srush/RASPy
@@ -49,7 +48,7 @@ flip()
49
 
50
  ### 输入
51
 
52
- 在一个 Transformer 中,基本曾是一个模型的前馈输入。这个输入通常包含原始的token和位置信息。
53
 
54
  <center>
55
 
@@ -57,7 +56,7 @@ flip()
57
 
58
  </center>
59
 
60
- 在代码中, tokens 的特征表示最简单的 transform 。他返回经过模型的 tokens 。默认输入序列是" hello "
61
 
62
  ```python
63
  tokens
@@ -81,7 +80,6 @@ tokens.input([5, 2, 4, 5, 2, 2])
81
 
82
  </center>
83
 
84
-
85
  作为 Transformers ,我们不能直接接受这些序列的位置。但是为了模拟位置嵌入,我们可以获取位置的索引
86
 
87
  ```python
@@ -105,7 +103,6 @@ sop.input("goodbye")
105
 
106
  </center>
107
 
108
-
109
  ### 前馈网络
110
 
111
  经过输入层后,我们到达了前馈网络层。在 Transformer 中,这一步可以对于序列的每一个元素独立的应用数学运算。
@@ -141,7 +138,7 @@ model.input([1, 2, 3, 5, 2])
141
 
142
  </center>
143
 
144
- 该运算可以组合多个 Transforms .举个例子,以上述的 token 和 indices 为例,这里可以类别 Transformer 可以跟踪多个片段信息
145
 
146
  ```python
147
  model = tokens - 5 + indices
@@ -154,7 +151,6 @@ model.input([1, 2, 3, 5, 2])
154
 
155
  </center>
156
 
157
-
158
  ```python
159
  (tokens == "l") | (indices == 1)
160
  ```
@@ -165,7 +161,6 @@ model.input([1, 2, 3, 5, 2])
165
 
166
  </center>
167
 
168
-
169
  我们提供了一些辅助函数让写 transforms 变得更简单,举例来说,where 提供了一个类似 if 功能的结构。
170
 
171
  ```python
@@ -178,7 +173,7 @@ where((tokens == "h") | (tokens == "l"), tokens, "q")
178
 
179
  </center>
180
 
181
- `map`使我们可以定义自己的操作,例如一个字符串以 int 转换。(用户应谨慎使用可以使用的简单神经网络计算的操作)
182
 
183
  ```python
184
  atoi = tokens.map(lambda x: ord(x) - ord('0'))
@@ -191,9 +186,7 @@ atoi.input("31234")
191
 
192
  </center>
193
 
194
-
195
-
196
- 当连接了这些 transforms ,可以更容易的编写功能。举例来说,下面是应用了 where 和 atoi 和加2的操作
197
 
198
  ```python
199
  def atoi(seq=tokens):
@@ -218,7 +211,7 @@ op.input("02-13")
218
 
219
  </center>
220
 
221
- 我们开始定义 Key 和 query 的标记。key 和 Query 可以直接从上面的 transforms 创建。举个例子,如果我们想要定义一个key我们称作key。
222
 
223
  ```python
224
  key(tokens)
@@ -230,7 +223,6 @@ key(tokens)
230
 
231
  </center>
232
 
233
-
234
  对于 query 也一样
235
 
236
  ```python
@@ -243,7 +235,6 @@ query(tokens)
243
 
244
  </center>
245
 
246
-
247
  标量可以作为 key 或 query 使用。他们会广播���基础序列的长度。
248
 
249
  ```python
@@ -256,7 +247,6 @@ query(1)
256
 
257
  </center>
258
 
259
-
260
  我们创建了筛选器来应用 key 和 query 之间的操作。这对应于一个二进制矩阵,指示每个 query 要关注哪个 key。与 Transformers 不用,这个注意力矩阵未加入权重。
261
 
262
  ```python
@@ -270,9 +260,8 @@ eq
270
 
271
  </center>
272
 
273
-
274
  一些例子:
275
- - 选择器的匹配位置偏移1。
276
 
277
  ```python
278
  offset = (key(indices) == query(indices - 1))
@@ -285,7 +274,6 @@ offset
285
 
286
  </center>
287
 
288
-
289
  - key 早于 query 的选择器。
290
 
291
  ```python
@@ -299,7 +287,6 @@ before
299
 
300
  </center>
301
 
302
-
303
  - key 晚于 query 的选择器。
304
 
305
  ```python
@@ -313,7 +300,7 @@ after
313
 
314
  </center>
315
 
316
- 选择器可以通过布尔操作合并。比如,这个选择器befoe和eq做合并,我们通过在矩阵中包含一对键和值来显示这一点。
317
 
318
  ```python
319
  before & eq
@@ -325,11 +312,10 @@ before & eq
325
 
326
  </center>
327
 
328
-
329
  ## 使用注意力机制
330
  给一个注意力选择器,我们可以提供一个序列值做聚合操作。我们通过累加那些选择器选过的真值做聚合。
331
 
332
- (笔记:在原始论文中,他们使用一个平均聚合操作并且展示了一个巧妙的结构,其中平均聚合能够代表总和计算。RASPy 默认情况下使用累加来使其简单化并避免碎片化。实际上,这意味着 raspy 可能低估了将基于平均模型转换为2倍的层数)
333
 
334
  注意聚合操作使我们能够计算直方图之类的功能。
335
 
@@ -351,8 +337,7 @@ before & eq
351
 
352
  </center>
353
 
354
-
355
- 一些注意力机制操作甚至不需要用到输入 token 。举例来说,去计算序列长度,我们创建一个" select all "的注意力筛选器并且给他赋值。
356
 
357
  ```python
358
  length = (key(1) == query(1)).value(1)
@@ -366,7 +351,6 @@ length
366
 
367
  </center>
368
 
369
-
370
  这里有更多复杂的例子,下面将一步一步展示。(这有点像做采访一样)
371
 
372
  我们想要计算一个序列的相邻值的和。首先我们向前截断。
@@ -436,7 +420,6 @@ cumsum().input([3, 1, -2, 3, 1])
436
 
437
  </center>
438
 
439
-
440
  ### 层
441
  这个语言支持编译更加复杂的 transforms。他同时通过跟踪每一个运算操作计算层。
442
 
@@ -446,8 +429,7 @@ cumsum().input([3, 1, -2, 3, 1])
446
 
447
  </center>
448
 
449
-
450
- 这里有个2层 transform 的例子,第一个对应于计算长度,第二个对应于累积总和。
451
 
452
  ```python
453
  x = cumsum(length - indices)
@@ -460,8 +442,7 @@ x.input([3, 2, 3, 5])
460
 
461
  </center>
462
 
463
-
464
- ## 用transformers进行编程
465
 
466
  使用这个函数库,我们可以编写完成一个复杂任务
467
 
@@ -469,13 +450,13 @@ Gail Weiss,给我一个极其挑战的问题来打破这个步骤
469
 
470
  我们可以加载一个添加任意长度数字的 Transformer 吗?
471
 
472
- 例: 给一个字符串 "19492+23919",我们可以加载正确的输出吗?
473
 
474
  如果你想自己尝试,我们提供了一个[版本](https://colab.research.google.com/github/srush/raspy/blob/main/Blog.ipynb)你可以自己试试。
475
 
476
- ### 挑战一 :选择一个给定的索引
477
 
478
- 加载一个在索引i处全元素都有值的序列
479
 
480
  ```python
481
  def index(i, seq=tokens):
@@ -490,10 +471,9 @@ index(1)
490
 
491
  </center>
492
 
493
-
494
  ### 挑战二 :转换
495
 
496
- 通过i位置将所有 token 移动到右侧。
497
 
498
  ```python
499
  def shift(i=1, default="_", seq=tokens):
@@ -530,7 +510,7 @@ minimum()([5,3,2,5,2])
530
 
531
  ### 挑战四:第一索引
532
 
533
- 计算有 token q 的第一索引(2层)
534
 
535
  ```python
536
  def first(q, seq=tokens):
@@ -546,7 +526,7 @@ first("l")
546
 
547
  ### 挑战五 :右对齐
548
 
549
- 右对齐一个填充序列。例: " ralign().inputs(’xyz___‘) =’—xyz’ "(2层)
550
 
551
  ```python
552
  def ralign(default="-", sop=tokens):
@@ -564,7 +544,7 @@ ralign()("xyz__")
564
 
565
  ### 挑战六:分离
566
 
567
- 把一个序列在 token "v" 处分离成两部分然后右对齐(2层)
568
 
569
  ```python
570
  def split(v, i, sop=tokens):
@@ -597,7 +577,7 @@ split("+", 0)("xyz+zyr")
597
 
598
  ### 挑战七:滑动
599
 
600
- 将特殊 token “ <”替换为最接近的“ <”value.(2层)
601
 
602
  ```python
603
  def slide(match, seq=tokens):
@@ -622,11 +602,11 @@ slide(tokens != "<").input("xxxh<<<l")
622
  add().input("683+345")
623
  ```
624
 
625
- 0.分成两部分。转制成整形。加入
626
 
627
  >“683+345” => [0, 0, 0, 9, 12, 8]
628
 
629
- 1. 计算携带条款。三种可能性:1个携带,0不携带,<也许有携带。
630
 
631
  >[0, 0, 0, 9, 12, 8] => “00<100”
632
 
@@ -636,7 +616,7 @@ add().input("683+345")
636
 
637
  3. 完成加法
638
 
639
- 这些都是1行代码。完整的系统是6个注意力机制。(尽管 Gail 说,如果你足够细心则可以在5个中完成!)。
640
 
641
  ```python
642
  def add(sop=tokens):
 
1
 
 
2
  - [论文](https://arxiv.org/pdf/2106.06981.pdf) 来自 Gail Weiss, Yoav Goldberg,Eran Yahav.
3
  - 博客参考 [Sasha Rush](https://rush-nlp.com/) 和 [Gail Weiss](https://sgailw.cswp.cs.technion.ac.il/)
4
  - 库和交互 Notebook: [srush/raspy](https://github.com/srush/RASPy)
 
13
 
14
  但是这些图表没有提供任何直观的计算该模型的框架表示。当研究者对于 Transformer 如何工作抱有兴趣时,直观的获取他运行的机制变得十分有用。
15
 
16
+ [像 Transformers 一样思考](https://arxiv.org/pdf/2106.06981.pdf) 提出 transformer 类计算框架。这个框架直接计算和模仿 Transformer 计算。使用 [RASP](https://github.com/tech-srl/RASP) 编程语言,使每个程序编译成一个特殊的 Transformer 。
17
 
18
+ 在这篇博客中,我用 python 复现了 RASP 的变体 (RASPy)。该语言大致与原始版本相当,但是多了一些我认为很有趣的变化。通过这些语言,作者 Gail Weiss 的工作,提供了一套具有挑战性的有趣且正确的方式可以帮助了解其工作原理。
19
 
20
  ```bash
21
  !pip install git+https://github.com/srush/RASPy
 
48
 
49
  ### 输入
50
 
51
+ 在一个 Transformer 中,基本曾是一个模型的前馈输入。这个输入通常包含原始的 token 和位置信息。
52
 
53
  <center>
54
 
 
56
 
57
  </center>
58
 
59
+ 在代码中, tokens 的特征表示最简单的 transform 。他返回经过模型的 tokens 。默认输入序列是 " hello "
60
 
61
  ```python
62
  tokens
 
80
 
81
  </center>
82
 
 
83
  作为 Transformers ,我们不能直接接受这些序列的位置。但是为了模拟位置嵌入,我们可以获取位置的索引
84
 
85
  ```python
 
103
 
104
  </center>
105
 
 
106
  ### 前馈网络
107
 
108
  经过输入层后,我们到达了前馈网络层。在 Transformer 中,这一步可以对于序列的每一个元素独立的应用数学运算。
 
138
 
139
  </center>
140
 
141
+ 该运算可以组合多个 Transforms . 举个例子,以上述的 token 和 indices 为例,这里可以类别 Transformer 可以跟踪多个片段信息
142
 
143
  ```python
144
  model = tokens - 5 + indices
 
151
 
152
  </center>
153
 
 
154
  ```python
155
  (tokens == "l") | (indices == 1)
156
  ```
 
161
 
162
  </center>
163
 
 
164
  我们提供了一些辅助函数让写 transforms 变得更简单,举例来说,where 提供了一个类似 if 功能的结构。
165
 
166
  ```python
 
173
 
174
  </center>
175
 
176
+ `map` 使我们可以定义自己的操作,例如一个字符串以 int 转换。(用户应谨慎使用可以使用的简单神经网络计算的操作)
177
 
178
  ```python
179
  atoi = tokens.map(lambda x: ord(x) - ord('0'))
 
186
 
187
  </center>
188
 
189
+ 当连接了这些 transforms ,可以更容易的编写功能。举例来说,下面是应用了 where 和 atoi 和加 2 的操作
 
 
190
 
191
  ```python
192
  def atoi(seq=tokens):
 
211
 
212
  </center>
213
 
214
+ 我们开始定义 Key 和 query 的标记。key 和 Query 可以直接从上面的 transforms 创建。举个例子,如果我们想要定义一个 key 我们称作 key。
215
 
216
  ```python
217
  key(tokens)
 
223
 
224
  </center>
225
 
 
226
  对于 query 也一样
227
 
228
  ```python
 
235
 
236
  </center>
237
 
 
238
  标量可以作为 key 或 query 使用。他们会广播���基础序列的长度。
239
 
240
  ```python
 
247
 
248
  </center>
249
 
 
250
  我们创建了筛选器来应用 key 和 query 之间的操作。这对应于一个二进制矩阵,指示每个 query 要关注哪个 key。与 Transformers 不用,这个注意力矩阵未加入权重。
251
 
252
  ```python
 
260
 
261
  </center>
262
 
 
263
  一些例子:
264
+ - 选择器的匹配位置偏移 1。
265
 
266
  ```python
267
  offset = (key(indices) == query(indices - 1))
 
274
 
275
  </center>
276
 
 
277
  - key 早于 query 的选择器。
278
 
279
  ```python
 
287
 
288
  </center>
289
 
 
290
  - key 晚于 query 的选择器。
291
 
292
  ```python
 
300
 
301
  </center>
302
 
303
+ 选择器可以通过布尔操作合并。比如,这个选择器 befoe eq 做合并,我们通过在矩阵中包含一对键和值来显示这一点。
304
 
305
  ```python
306
  before & eq
 
312
 
313
  </center>
314
 
 
315
  ## 使用注意力机制
316
  给一个注意力选择器,我们可以提供一个序列值做聚合操作。我们通过累加那些选择器选过的真值做聚合。
317
 
318
+ (笔记:在原始论文中,他们使用一个平均聚合操作并且展示了一个巧妙的结构,其中平均聚合能够代表总和计算。RASPy 默认情况下使用累加来使其简单化并避免碎片化。实际上,这意味着 raspy 可能低估了将基于平均模型转换为 2 倍的层数)
319
 
320
  注意聚合操作使我们能够计算直方图之类的功能。
321
 
 
337
 
338
  </center>
339
 
340
+ 一些注意力机制操作甚至不需要用到输入 token 。举例来说,去计算序列长度,我们创建一个 " select all " 的注意力筛选器并且给他赋值。
 
341
 
342
  ```python
343
  length = (key(1) == query(1)).value(1)
 
351
 
352
  </center>
353
 
 
354
  这里有更多复杂的例子,下面将一步一步展示。(这有点像做采访一样)
355
 
356
  我们想要计算一个序列的相邻值的和。首先我们向前截断。
 
420
 
421
  </center>
422
 
 
423
  ### 层
424
  这个语言支持编译更加复杂的 transforms。他同时通过跟踪每一个运算操作计算层。
425
 
 
429
 
430
  </center>
431
 
432
+ 这里有个 2 层 transform 的例子,第一个对应于计算长度,第二个对应于累积总和。
 
433
 
434
  ```python
435
  x = cumsum(length - indices)
 
442
 
443
  </center>
444
 
445
+ ## 用 transformers 进行编程
 
446
 
447
  使用这个函数库,我们可以编写完成一个复杂任务
448
 
 
450
 
451
  我们可以加载一个添加任意长度数字的 Transformer 吗?
452
 
453
+ 例: 给一个字符串 "19492+23919", 我们可以加载正确的输出吗?
454
 
455
  如果你想自己尝试,我们提供了一个[版本](https://colab.research.google.com/github/srush/raspy/blob/main/Blog.ipynb)你可以自己试试。
456
 
457
+ ### 挑战一 : 选择一个给定的索引
458
 
459
+ 加载一个在索引 i 处全元素都有值的序列
460
 
461
  ```python
462
  def index(i, seq=tokens):
 
471
 
472
  </center>
473
 
 
474
  ### 挑战二 :转换
475
 
476
+ 通过 i 位置将所有 token 移动到右侧。
477
 
478
  ```python
479
  def shift(i=1, default="_", seq=tokens):
 
510
 
511
  ### 挑战四:第一索引
512
 
513
+ 计算有 token q 的第一索引 (2 层)
514
 
515
  ```python
516
  def first(q, seq=tokens):
 
526
 
527
  ### 挑战五 :右对齐
528
 
529
+ 右对齐一个填充序列。例: " ralign().inputs(’xyz___‘) =’—xyz’ "(2 层)
530
 
531
  ```python
532
  def ralign(default="-", sop=tokens):
 
544
 
545
  ### 挑战六:分离
546
 
547
+ 把一个序列在 token "v" 处分离成两部分然后右对齐 (2 层)
548
 
549
  ```python
550
  def split(v, i, sop=tokens):
 
577
 
578
  ### 挑战七:滑动
579
 
580
+ 将特殊 token “ <”替换为最接近的“ <”value.(2 层)
581
 
582
  ```python
583
  def slide(match, seq=tokens):
 
602
  add().input("683+345")
603
  ```
604
 
605
+ 0. 分成两部分。转制成整形。加入
606
 
607
  >“683+345” => [0, 0, 0, 9, 12, 8]
608
 
609
+ 1. 计算携带条款。三种可能性:1 个携带,0 不携带,< 也许有携带。
610
 
611
  >[0, 0, 0, 9, 12, 8] => “00<100”
612
 
 
616
 
617
  3. 完成加法
618
 
619
+ 这些都是 1 行代码。完整的系统是 6 个注意力机制。(尽管 Gail 说,如果你足够细心则可以在 5 个中完成!)。
620
 
621
  ```python
622
  def add(sop=tokens):