Path: blob/master/translate_cache/neox/samples/finetune.si.json
4937 views
{1"<h1>Fine Tune GPT-NeoX</h1>\n<p>This shows how to fine tune GPT-NeoX with pipeline parallelism.</p>\n": "<h1>\u0dc3\u0dd2\u0dc4\u0dd2\u0db1\u0dca\u0da7\u0dd2\u0dba\u0dd4\u0db1\u0dca \u0da2\u0dd3\u0db4\u0dd3\u0da7\u0dd3-\u0db1\u0dd2\u0dba\u0ddd\u0d9a\u0dca\u0dc3\u0dca</h1>\n<p>\u0db1\u0dbd\u0db8\u0dcf\u0dbb\u0dca\u0d9c \u0dc3\u0db8\u0dcf\u0db1\u0dca\u0dad\u0dbb\u0d9a\u0dbb\u0dab\u0dba \u0dc3\u0db8\u0d9f \u0da2\u0dd3\u0db4\u0dd3\u0da7\u0dd3-\u0db1\u0dd2\u0dba\u0ddd\u0d9a\u0dca\u0dc3\u0dca \u0dc4\u0ddc\u0db3\u0dd2\u0db1\u0dca \u0dc3\u0dd4\u0dc3\u0dbb \u0d9a\u0dbb\u0db1\u0dca\u0db1\u0dda \u0d9a\u0dd9\u0dc3\u0dda\u0daf\u0dd0\u0dba\u0dd2 \u0db8\u0dd9\u0dba\u0dd2\u0db1\u0dca \u0db4\u0dd9\u0db1\u0dca\u0dc0\u0dba\u0dd2. </p>\n",2"<h3>Create fine tuner for biases</h3>\n": "<h3>\u0d85\u0d9c\u0dad\u0dd3\u0db1\u0dca\u0dc3\u0db3\u0dc4\u0dcf \u0dc3\u0dd2\u0dc4\u0dd2\u0db1\u0dca \u0dc3\u0dd4\u0dc3\u0dbb\u0d9a\u0dba\u0d9a\u0dca \u0dc3\u0dcf\u0daf\u0db1\u0dca\u0db1</h3>\n",3"<h3>Create pipeline parallel model</h3>\n": "<h3>\u0db1\u0dbd\u0db8\u0dcf\u0dbb\u0dca\u0d9c \u0dc3\u0db8\u0dcf\u0db1\u0dca\u0dad\u0dbb \u0d86\u0d9a\u0dd8\u0dad\u0dd2\u0dba\u0d9a\u0dca \u0dc3\u0dcf\u0daf\u0db1\u0dca\u0db1</h3>\n",4"<h3>Load GPT-NeoX layers</h3>\n": "<h3>\u0da2\u0dd3\u0db4\u0dd3\u0da7\u0dd3-\u0db1\u0dd2\u0dba\u0ddd\u0d9a\u0dca\u0dc3\u0dca\u0dc3\u0dca\u0dae\u0dbb \u0db4\u0da7\u0dc0\u0db1\u0dca\u0db1</h3>\n",5"<h4>Tiny Shakespeare dataset</h4>\n": "<h4>\u0d9a\u0dd4\u0da9\u0dcf\u0dc2\u0dda\u0d9a\u0dca\u0dc3\u0dca\u0db4\u0dd2\u0dba\u0dbb\u0dca \u0daf\u0dad\u0dca\u0dad \u0d9a\u0da7\u0dca\u0da7\u0dbd\u0dba</h4>\n",6"<p> </p>\n": "<p> </p>\n",7"<p>Create Fairscale Pipe module </p>\n": "<p>\u0dc3\u0dcf\u0db0\u0dcf\u0dbb\u0dab\u0db1\u0dbd \u0db8\u0ddc\u0da9\u0dd2\u0dba\u0dd4\u0dbd\u0dba \u0dc3\u0dcf\u0daf\u0db1\u0dca\u0db1 </p>\n",8"<p>Create experiment </p>\n": "<p>\u0d85\u0dad\u0dca\u0dc4\u0daf\u0dcf\u0db6\u0dd0\u0dbd\u0dd3\u0db8 \u0dc3\u0dcf\u0daf\u0db1\u0dca\u0db1 </p>\n",9"<p>Create the Pipe module </p>\n": "<p>\u0db4\u0dba\u0dd2\u0db4\u0dca\u0db4\u0db8\u0ddc\u0da9\u0dd2\u0dba\u0dd4\u0dbd\u0dba \u0dc3\u0dcf\u0daf\u0db1\u0dca\u0db1 </p>\n",10"<p>Devices for each GPU </p>\n": "<p>\u0d91\u0d9a\u0dca\u0d91\u0d9a\u0dca GPU \u0dc3\u0db3\u0dc4\u0dcf \u0d8b\u0db4\u0dcf\u0d82\u0d9c </p>\n",11"<p>Get the layer distribution across GPUs </p>\n": "<p>GPU\u0dc4\u0dbb\u0dc4\u0dcf \u0dc3\u0dca\u0dae\u0dbb \u0dc0\u0dca\u0dba\u0dcf\u0db4\u0dca\u0dad\u0dd2\u0dba \u0dbd\u0db6\u0dcf \u0d9c\u0db1\u0dca\u0db1 </p>\n",12"<p>Initialize configs </p>\n": "<p>\u0dc0\u0dd2\u0db1\u0dca\u0dba\u0dcf\u0dc3\u0d86\u0dbb\u0db8\u0dca\u0db7 \u0d9a\u0dbb\u0db1\u0dca\u0db1 </p>\n",13"<p>Initialize the model. Do this before the loop for cleaner logs. </p>\n": "<p>\u0d86\u0d9a\u0dd8\u0dad\u0dd2\u0dba\u0d86\u0dbb\u0db8\u0dca\u0db7 \u0d9a\u0dbb\u0db1\u0dca\u0db1. \u0db4\u0dd2\u0dbb\u0dd2\u0dc3\u0dd2\u0daf\u0dd4 \u0dbd\u0ddc\u0d9c\u0dca \u0dc3\u0db3\u0dc4\u0dcf \u0dbd\u0dd6\u0db4\u0dba\u0da7 \u0db4\u0dd9\u0dbb \u0db8\u0dd9\u0dba \u0d9a\u0dbb\u0db1\u0dca\u0db1. </p>\n",14"<p>Make sure the finetuner is initialized </p>\n": "<p>\u0db8\u0dd9\u0db8finetuner \u0d86\u0dbb\u0db8\u0dca\u0db7 \u0d9a\u0dbb \u0d87\u0dad\u0dd2 \u0db6\u0dc0\u0da7 \u0dc0\u0d9c \u0db6\u0dbd\u0dcf \u0d9c\u0db1\u0dca\u0db1 </p>\n",15"<p>Mark biases as trainable </p>\n": "<p>\u0db4\u0dd4\u0dc4\u0dd4\u0dab\u0dd4\u0d9a\u0dc5 \u0dc4\u0dd0\u0d9a\u0dd2 \u0dbd\u0dd9\u0dc3 \u0d85\u0d9c\u0dad\u0dd3\u0db1\u0dca \u0dc3\u0dbd\u0d9a\u0dd4\u0dab\u0dd4 \u0d9a\u0dbb\u0db1\u0dca\u0db1 </p>\n",16"<p>Start the experiment </p>\n": "<p>\u0d85\u0dad\u0dca\u0dc4\u0daf\u0dcf\u0db6\u0dd0\u0dbd\u0dd3\u0db8 \u0d86\u0dbb\u0db8\u0dca\u0db7 \u0d9a\u0dbb\u0db1\u0dca\u0db1 </p>\n",17"<p>Train </p>\n": "<p>\u0daf\u0dd4\u0db8\u0dca\u0dbb\u0dd2\u0dba </p>\n",18"Fine Tune GPT-NeoX": "\u0dc3\u0dd2\u0dc4\u0dd2\u0db1\u0dca \u0da7\u0dd2\u0dba\u0dd4\u0db1\u0dca \u0da2\u0dd3\u0db4\u0dd3\u0da7\u0dd3-\u0db1\u0dd2\u0dba\u0ddd\u0d9a\u0dca\u0dc3\u0dca",19"Fine tune GPT-NeoX biases with Fairscale pipeline parallel module": "\u0dc6\u0dd9\u0dba\u0dcf\u0dbb\u0dca\u0dc3\u0dca\u0d9a\u0dda\u0dbd\u0dca \u0db1\u0dbd \u0db8\u0dcf\u0dbb\u0dca\u0d9c \u0dc3\u0db8\u0dcf\u0db1\u0dca\u0dad\u0dbb \u0db8\u0ddc\u0da9\u0dd2\u0dba\u0dd4\u0dbd\u0dba \u0dc3\u0db8\u0d9f \u0dc4\u0ddc\u0db3 \u0dc3\u0dd4\u0dc3\u0dbb \u0da2\u0dd3\u0db4\u0dd3\u0da7\u0dd3-\u0db1\u0dd2\u0dba\u0ddd\u0d9a\u0dca\u0dc3\u0dca \u0d85\u0d9c\u0dad\u0dd3\u0db1\u0dca"20}2122