Datasets:
Id
int64 1
2.5k
| English
stringlengths 5
630
| Burmese
stringlengths 5
585
|
|---|---|---|
1
|
Welcome to the Hugging Face Course.
|
Hugging Face သင်တန်းမှ ကြိုဆိုပါတယ်။
|
2
|
This course has been designed to teach you all about the Hugging Face ecosystem, how to use the dataset and model hub as well as all our open-source libraries.
|
ဒီသင်တန်းကို Hugging Face ရဲ့ ဂေဟစနစ် အကြောင်း၊ dataset နဲ့ model hub တွေကို ဘယ်လိုအသုံးပြုရမလဲ၊ ကျွန်ုပ်တို့ရဲ့ open-source library တွေအားလုံးကို ဘယ်လိုသုံးရမလဲဆိုတာတွေကို သင်ကြားပေးဖို့ ရေးဆွဲထားတာပါ။
|
3
|
Here is the Table of Contents.
|
ဒီမှာတော့ သင်တန်းရဲ့ အကြောင်းအရာများ အညွှန်း ဖြစ်ပါတယ်။
|
4
|
As you can see, it's divided in three sections which become progressively more advanced.
|
သင်မြင်တဲ့အတိုင်း ဒီသင်တန်းကို အပိုင်းသုံးပိုင်း ခွဲခြားထားပြီး တစ်ပိုင်းပြီးတစ်ပိုင်း ပိုမိုအဆင့်မြင့်လာမှာ ဖြစ်ပါတယ်။
|
5
|
At this stage, the first two sections have been released.
|
ဒီအဆင့်မှာတော့ ပထမဆုံး အပိုင်းနှစ်ပိုင်းကို ထုတ်ပြန်ပြီးပါပြီ။
|
6
|
So first, we'll teach you the basics of how to use a Transformer model, fine-tune it on your own data set and share the result with the community.
|
ပထမဦးစွာ Transformer model ကို ဘယ်လိုအသုံးပြုရမယ်၊ ကိုယ်ပိုင် data set ပေါ်မှာ ဘယ်လို fine-tune လုပ်ရမယ်၊ ပြီးတော့ ရလဒ်ကို အသိုင်းအဝိုင်းနဲ့ ဘယ်လိုမျှဝေရမယ်ဆိုတဲ့ အခြေခံတွေကို သင်ကြားပေးပါမယ်။
|
7
|
So second, we'll dive deeper into our libraries and teach you how to tackle any NLP task.
|
ဒုတိယအနေနဲ့ ကျွန်ုပ်တို့ရဲ့ library တွေထဲကို ပိုမိုနက်နက်နဲနဲ လေ့လာပြီး မည်သည့် NLP (သဘာဝဘာသာစကား စီမံဆောင်ရွက်ခြင်း) လုပ်ငန်းကိုမဆို ဖြေရှင်းနိုင်မယ့် နည်းလမ်းတွေကို သင်ပေးပါမယ်။
|
8
|
We're actively working on the last one and hope to have it ready for you for the spring of 2022.
|
နောက်ဆုံးအပိုင်းကိုတော့ ကျွန်ုပ်တို့ တက်ကြွစွာ ဆောင်ရွက်နေပြီး ၂၀၂၂ ခုနှစ် နွေဦးရာသီမှာ အသင့်ဖြစ်အောင် လုပ်ပေးနိုင်လိမ့်မယ်လို့ မျှော်လင့်ပါတယ်။
|
9
|
The first chapter requires no technical knowledge and is a good introduction to learn what Transformers models can do and how it could be of use to you or your company.
|
ပထမအခန်းအတွက်တော့ နည်းပညာပိုင်းဆိုင်ရာ အသိပညာ မလိုအပ်ပါဘူး၊ Transformer မော်ဒယ်တွေ ဘာတွေလုပ်နိုင်တယ်၊ ဒါတွေက သင် ဒါမှမဟုတ် သင့်ကုမ္ပဏီအတွက် ဘယ်လိုအသုံးဝင်နိုင်တယ်ဆိုတာ လေ့လာဖို့အတွက် ကောင်းမွန်တဲ့ နိဒါန်းတစ်ခု ဖြစ်ပါတယ်။
|
10
|
The next chapters require a good knowledge of Python and some basic knowledge of Machine Learning and Deep Learning.
|
နောက်အခန်းတွေအတွက်တော့ Python ကို ကောင်းကောင်းသိဖို့နဲ့ Machine Learning၊ Deep Learning တို့ရဲ့ အခြေခံအသိပညာအချို့ လိုအပ်ပါတယ်။
|
11
|
If you don't know what a training and validation set are or what gradient descent means, you should look at an introductory course such as the ones published by deeplearning.ai or fast.ai.
|
အကယ်၍ training set နဲ့ validation set ဆိုတာဘာလဲ၊ ဒါမှမဟုတ် gradient descent ဆိုတာ ဘာကိုဆိုလိုသလဲဆိုတာ မသိဘူးဆိုရင် deeplearning.ai ဒါမှမဟုတ် fast.ai တို့က ထုတ်ဝေထားတဲ့ နိဒါန်းသင်တန်းတွေလိုမျိုး သင်တန်းတွေကို ကြည့်သင့်ပါတယ်။
|
12
|
It's also best if you have some basics in one Deep Learning Framework, PyTorch or TensorFlow.
|
Deep Learning Framework တစ်ခုခုဖြစ်တဲ့ PyTorch ဒါမှမဟုတ် TensorFlow မှာ အခြေခံအချို့ ရှိထားမယ်ဆိုရင် ပိုကောင်းပါတယ်။
|
13
|
Each part of the material introduced in this course has a version in both those frameworks, so you will be able to pick the one you are most comfortable with.
|
ဒီသင်တန်းမှာ မိတ်ဆက်ပေးထားတဲ့ အကြောင်းအရာ အစိတ်အပိုင်းတိုင်းမှာ အဲဒီ framework နှစ်ခုလုံးအတွက် version တွေ ရှိပါတယ်၊ ဒါကြောင့် သင်အကျွမ်းကျင်ဆုံးဖြစ်တဲ့ တစ်ခုကို ရွေးချယ်နိုင်ပါလိမ့်မယ်။
|
14
|
This is the team that developed this course.
|
ဒါကတော့ ဒီသင်တန်းကို ရေးဆွဲခဲ့တဲ့ အဖွဲ့ပဲ ဖြစ်ပါတယ်။
|
15
|
I'll now let each of the speakers introduce themselves briefly.
|
အခုဆိုရင် စကားပြောမယ့်သူ တစ်ဦးချင်းစီကို သူတို့ကိုယ်သူတို့ အတိုချုံး မိတ်ဆက်ပေးဖို့ ခွင့်ပြုပါမယ်။
|
16
|
Hi, my name is Matthew, and I'm a Machine Learning Engineer at Hugging Face.
|
မင်္ဂလာပါ၊ ကျွန်တော့်နာမည် Matthew ဖြစ်ပြီး Hugging Face မှာ စက်သင်ယူမှု အင်ဂျင်နီယာတစ်ဦးပါ။
|
17
|
I work on the open-source team and I'm responsible for maintaining particularly the TensorFlow code there.
|
ကျွန်တော်ဟာ open-source အဖွဲ့မှာ လုပ်ကိုင်ပြီး အထူးသဖြင့် TensorFlow code တွေကို ထိန်းသိမ်းစောင့်ရှောက်ဖို့ တာဝန်ယူထားပါတယ်။
|
18
|
Previously, I was a Machine Learning Engineer at Parsley, who've recently been acquired by Automatic, and I was a postdoctoral researcher before that at Trinity College, Dublin in Ireland working on computational genetics and retinal disease.
|
အရင်တုန်းကတော့ Automatic က မကြာသေးခင်ကမှ ဝယ်ယူခဲ့တဲ့ Parsley မှာ Machine Learning Engineer အဖြစ် လုပ်ခဲ့ဖူးပါတယ်၊ အဲဒီ့မတိုင်ခင်က အိုင်ယာလန်နိုင်ငံ၊ Dublin ရှိ Trinity College မှာ မျက်ကြည်လွှာရောဂါနဲ့ ကွန်ပျူတာ မျိုးရိုးဗီဇဆိုင်ရာ သုတေသနတွေ လုပ်ခဲ့တဲ့ postdoctoral researcher တစ်ဦး ဖြစ်ခဲ့ပါတယ်။
|
19
|
Hi, I'm Lysandre.
|
မင်္ဂလာပါ၊ ကျွန်တော် Lysandre ပါ။
|
20
|
I'm a Machine Learning Engineer at Hugging Face and I'm specifically part of the open-source team.
|
ကျွန်တော်က Hugging Face မှာ စက်သင်ယူမှု အင်ဂျင်နီယာတစ်ဦးဖြစ်ပြီး open-source အဖွဲ့မှာ အထူးပါဝင်သူပါ။
|
21
|
I've been at Hugging Face for a few years now and alongside my team members, I've been working on most of the tools that you'll get to see in this course.
|
ကျွန်တော် Hugging Face မှာ အခုဆိုရင် နှစ်အနည်းငယ်ကြာပြီဖြစ်ပြီး ကျွန်တော့်ရဲ့ အဖွဲ့သားတွေနဲ့အတူ ဒီသင်တန်းမှာ သင်တို့တွေ့မြင်ရမယ့် ကိရိယာအများစုကို တီထွင်ဖန်တီးခဲ့ပါတယ်။
|
22
|
Hi, I'm Sylvain.
|
မင်္ဂလာပါ၊ ကျွန်တော် Sylvain ပါ။
|
23
|
I'm a Research Engineer at Hugging Face and one of the main maintainers of the Transformers Library.
|
ကျွန်တော်က Hugging Face မှာ သုတေသန အင်ဂျင်နီယာတစ်ဦးဖြစ်ပြီး Transformers Library ရဲ့ အဓိက ထိန်းသိမ်းသူတွေထဲက တစ်ယောက်ပါ။
|
24
|
Previously, I worked at fast.ai where I helped develop the fast.ai Library as well as the online book.
|
အရင်တုန်းက fast.ai မှာ အလုပ်လုပ်ခဲ့ပြီး fast.ai Library နဲ့ online စာအုပ်ကို တီထွင်ရာမှာ ကူညီခဲ့ပါတယ်။
|
25
|
Before that, I was a math and computer science teacher in France.
|
အဲဒီ့မတိုင်ခင်က ပြင်သစ်မှာ သင်္ချာနဲ့ ကွန်ပျူတာသိပ္ပံဆရာတစ်ဦး ဖြစ်ခဲ့ပါတယ်။
|
26
|
Hi, my name is Sasha and I'm a Researcher at Hugging Face, working on the ethical, environmental and social impacts of machine learning models.
|
မင်္ဂလာပါ၊ ကျွန်တော့်နာမည် Sasha ဖြစ်ပြီး Hugging Face မှာ သုတေသီတစ်ဦးပါ၊ စက်သင်ယူမှု မော်ဒယ်တွေရဲ့ ကျင့်ဝတ်၊ သဘာဝပတ်ဝန်းကျင်နဲ့ လူမှုရေးဆိုင်ရာ သက်ရောက်မှုတွေအပေါ် လုပ်ဆောင်နေပါတယ်။
|
27
|
Previously, I was a postdoctoral researcher at Mila, University in Montreal and I also worked as an Applied AI Researcher for the United Nations Global Pulse.
|
အရင်တုန်းက Montreal ရှိ Mila တက္ကသိုလ်မှာ postdoctoral researcher အဖြစ်လုပ်ခဲ့ပြီး ကုလသမဂ္ဂ Global Pulse အတွက် Applied AI Researcher အဖြစ်လည်း လုပ်ခဲ့ဖူးပါတယ်။
|
28
|
I've been involved in projects such as CodeCarbon and the Machine Learning Impacts Calculator to measure the carbon footprint of machine learning.
|
စက်သင်ယူမှုရဲ့ ကာဗွန်ခြေရာကို တိုင်းတာဖို့ CodeCarbon နဲ့ Machine Learning Impacts Calculator လိုမျိုး ပရောဂျက်တွေမှာ ပါဝင်ခဲ့ပါတယ်။
|
29
|
Hi, I'm Merve and I'm a Developer Advocate at Hugging Face.
|
မင်္ဂလာပါ၊ ကျွန်တော် Merve ပါ၊ Hugging Face မှာ Developer Advocate တစ်ဦးပါ။
|
30
|
Previously, I was working as a Machine Learning Engineer building NLP tools and chatbots.
|
အရင်က NLP ကိရိယာတွေနဲ့ chatbots တွေတည်ဆောက်တဲ့ စက်သင်ယူမှု အင်ဂျင်နီယာအဖြစ် လုပ်ခဲ့ပါတယ်။
|
31
|
Currently, I'm working to improve the hub and democratize machine learning.
|
လက်ရှိမှာတော့ hub ကို တိုးတက်အောင်လုပ်ဖို့နဲ့ စက်သင်ယူမှုကို လူတိုင်းသုံးနိုင်အောင် လုပ်ဆောင်ဖို့ ကြိုးစားနေပါတယ်။
|
32
|
Hello everyone.
|
အားလုံးမင်္ဂလာပါ။
|
33
|
My name is Lucile and I'm a Machine Learning Engineer at Hugging Face.
|
ကျွန်မနာမည် Lucile ဖြစ်ပြီး Hugging Face မှာ စက်သင်ယူမှု အင်ဂျင်နီယာပါ။
|
34
|
To tell you in two sentences who I am, I work on the development and support of open-source tools and I also participate in several research project in the field of Natural Language Processing.
|
ကျွန်မ ဘယ်သူလဲဆိုတာကို ဝါကျနှစ်ကြောင်းနဲ့ ပြောရရင် open-source ကိရိယာတွေကို တီထွင်တာနဲ့ အထောက်အပံ့ပေးတာတွေ လုပ်ဆောင်ပြီး သဘာဝဘာသာစကား စီမံဆောင်ရွက်ခြင်း (Natural Language Processing) နယ်ပယ်က သုတေသနပရောဂျက်များစွာမှာလည်း ပါဝင်ပါတယ်။
|
35
|
Good day there.
|
မင်္ဂလာရှိသောနေ့ပါ။
|
36
|
I'm Lewis and I'm a Machine Learning Engineer in the open-source team at Hugging Face.
|
ကျွန်တော် Lewis ပါ၊ Hugging Face ရဲ့ open-source အဖွဲ့မှာ စက်သင်ယူမှု အင်ဂျင်နီယာတစ်ဦးပါ။
|
37
|
I'm passionate about developing tools for the NLP community and you'll see me at many of Hugging Face's outreach activities.
|
NLP အသိုင်းအဝိုင်းအတွက် ကိရိယာတွေ တီထွင်ရတာကို ဝါသနာပါပြီး Hugging Face ရဲ့ လူထုဆက်သွယ်ရေး လှုပ်ရှားမှုများစွာမှာ ကျွန်တော့်ကို တွေ့ရပါလိမ့်မယ်။
|
38
|
Before joining Hugging Face, I spent several years developing machine learning applications for startups and enterprises in the domains of NLP, topological data analysis and time series.
|
Hugging Face မှာ မဝင်ခင်က NLP၊ topological data analysis နဲ့ time series တို့လို နယ်ပယ်တွေမှာ start-up တွေနဲ့ လုပ်ငန်းကြီးတွေအတွက် စက်သင်ယူမှု applications တွေကို နှစ်ပေါင်းများစွာ တီထွင်ခဲ့ဖူးပါတယ်။
|
39
|
In a former life, I was a theoretical physicist, where I researched particle collisions at the Large Hadron Collider and so.
|
အရင်ဘဝတုန်းက ကျွန်တော်က သီအိုရီဆိုင်ရာ ရူပဗေဒပညာရှင်ဖြစ်ပြီး Large Hadron Collider မှာ အမှုန်တိုက်မှုတွေကို သုတေသနလုပ်ခဲ့ပါတယ်။
|
40
|
Hey, I'm Leandro and I'm a Machine Learning Engineer in the open-source team at Hugging Face.
|
ဟေး၊ ကျွန်တော် Leandro ပါ၊ Hugging Face ရဲ့ open-source အဖွဲ့မှာ စက်သင်ယူမှု အင်ဂျင်နီယာတစ်ဦးပါ။
|
41
|
Before joining Hugging Face, I worked as a Data Scientist in Switzerland and have taught Data Science at University.
|
Hugging Face ကို မဝင်ခင်က ဆွစ်ဇာလန်မှာ Data Scientist အဖြစ် လုပ်ကိုင်ခဲ့ပြီး တက္ကသိုလ်မှာ ဒေတာသိပ္ပံ ကို သင်ကြားခဲ့ဖူးပါတယ်။
|
42
|
The pipeline function.
|
pipeline လုပ်ဆောင်ချက်။
|
43
|
The pipeline function is the most high level API of the Transformers library.
|
pipeline လုပ်ဆောင်ချက်သည် Transformers library ၏ အမြင့်ဆုံး အဆင့်ရှိ API တစ်ခု ဖြစ်သည်။
|
44
|
It regroups together all the steps to go from raw texts to usable predictions.
|
၎င်းသည် မူရင်းစာသားများမှ အသုံးပြုနိုင်သော ခန့်မှန်းချက်များအထိ ရောက်ရှိရန် လိုအပ်သည့် အဆင့်အားလုံးကို စုစည်းပေးထားသည်။
|
45
|
The model used is at the core of a pipeline, but the pipeline also include all the necessary pre-processing, since the model does not expect texts, but number, as well as some post-processing, to make the output of the model human-readable.
|
အသုံးပြုထားသည့် မော်ဒယ်သည် pipeline၏ အဓိကဖြစ်သော်လည်း၊ မော်ဒယ်သည် စာသားများအစား နံပါတ်များကိုသာ လက်ခံသောကြောင့် လိုအပ်သည့် ကြိုတင်စီမံဆောင်ရွက်မှုများအားလုံးနှင့် မော်ဒယ်၏ အထွက်ကို လူသားများ ဖတ်ရှုနားလည်နိုင်စေရန် နောက်ဆက်တွဲ စီမံဆောင်ရွက်မှုအချို့ကိုလည်း pipelineတွင် ပါဝင်စေသည်။
|
46
|
Let's look at a first example with the sentiment analysis pipeline.
|
ခံစားချက် ခွဲခြမ်းစိတ်ဖြာခြင်း pipelineဖြင့် ပထမဆုံး ဥပမာတစ်ခုကို ကြည့်ကြရအောင်။
|
47
|
This pipeline performs text classification on a given input and determines if it's positive or negative.
|
ဤpipelineသည် ပေးထားသော ထည့်သွင်းစာသားပေါ်တွင် စာသားခွဲခြားသတ်မှတ်ခြင်းကို လုပ်ဆောင်ပြီး အပြုသဘောဆောင်ခြင်း သို့မဟုတ် အနုတ်သဘောဆောင်ခြင်း ရှိမရှိ ဆုံးဖြတ်သည်။
|
48
|
Here, it attributed the positive label on the given text, with a confidence of 95%.
|
ဤတွင်၊ ၎င်းသည် ပေးထားသော စာသားပေါ်မှာ ၉၅% ယုံကြည်မှုနှင့်အတူ အပြုသဘော label ကို သတ်မှတ်ပေးခဲ့သည်။
|
49
|
You can pass multiple texts to the same pipeline, which will be processed and passed through the model together as a batch.
|
pipelineတစ်ခုတည်းသို့ စာသားများစွာ ပေးပို့နိုင်ပြီး ၎င်းတို့ကို အစုလိုက် စီမံဆောင်ရွက်ပြီး မော်ဒယ်မှတစ်ဆင့် ပေးပို့ပါမည်။
|
50
|
The output is a list of individual results in the same order as the input texts.
|
အထွက်ရလဒ်သည် ထည့်သွင်းစာသားများနှင့် တူညီသော အစီအစဉ်အတိုင်း တစ်ဦးချင်းရလဒ်များ၏ စာရင်းဖြစ်သည်။
|
51
|
Here we find the same label and score for the first text, and the second text is judged negative with a confidence of 99.9%.
|
ဤတွင် ပထမစာသားအတွက် တူညီသော label နှင့် score ကို တွေ့ရပြီး ဒုတိယစာသားကို ၉၉.၉% ယုံကြည်မှုဖြင့် အနုတ်သဘောဆောင်သည်ဟု ဆုံးဖြတ်ခဲ့သည်။
|
52
|
The zero-shot classification pipeline is a more general text-classification pipeline, it allows you to provide the labels you want.
|
zero-shot classification pipeline သည် ပိုမိုယေဘုယျကျသော စာသားခွဲခြားသတ်မှတ်ခြင်း pipelineတစ်ခုဖြစ်ပြီး သင်လိုချင်သော label များကို ပေးပို့နိုင်ရန် ခွင့်ပြုသည်။
|
53
|
Here we want to classify our input text along the labels, education, politics, and business.
|
ဤတွင် ကျွန်ုပ်တို့သည် ထည့်သွင်းစာသားကို ပညာရေး၊ နိုင်ငံရေးနှင့် စီးပွားရေး စသည့် label များအတိုင်း ခွဲခြားသတ်မှတ်လိုသည်။
|
54
|
The pipeline successfully recognizes it's more about education than the other labels, with a confidence of 84%.
|
၈၄% ယုံကြည်မှုဖြင့် ၎င်းသည် အခြားသော label များထက် ပညာရေးနှင့် ပိုမိုပတ်သက်ကြောင်းကို pipelineက အောင်မြင်စွာ သိရှိနိုင်ခဲ့သည်။
|
55
|
Moving on to other tasks, the text generation pipeline will auto-complete a given prompt.
|
အခြားလုပ်ငန်းများဆီသို့ ဆက်သွားပါက စာသားထုတ်လုပ်မှု pipelineသည် ပေးထားသော စာသားကို အလိုအလျောက် ဖြည့်စွက်ပေးပါလိမ့်မည်။
|
56
|
The output is generated with a bit of randomness, so it changes each time you call the generator object on a given prompt.
|
အထွက်ရလဒ်သည် အနည်းငယ် ကျပန်းဖြစ်မှုဖြင့် ထုတ်လုပ်ထားသောကြောင့် ပေးထားသော စာသားတစ်ခုအတွက် generator ကို ခေါ်ဆိုသည့် အကြိမ်တိုင်း ပြောင်းလဲသွားသည်။
|
57
|
Up until now, we've used the the pipeline API with the default model associated to each task, but you can use it with any model that has been pretrained or fine-tuned on this task.
|
ယခုအချိန်အထိ ကျွန်ုပ်တို့သည် လုပ်ငန်းတစ်ခုစီနှင့် သက်ဆိုင်သော မူလမော်ဒယ်ဖြင့် pipeline API ကို အသုံးပြုခဲ့သော်လည်း ဤလုပ်ငန်းအတွက် ကြိုတင်လေ့ကျင့်ထားသော သို့မဟုတ် fine-tune လုပ်ထားသော မည်သည့်မော်ဒယ်နှင့်မဆို ၎င်းကို အသုံးပြုနိုင်သည်။
|
58
|
Going on the model hub, huggingface.co/models you can filter the available models by task.
|
huggingface.co/models ရှိ model hub သို့ ဝင်ရောက်ပြီး ရရှိနိုင်သော မော်ဒယ်များကို လုပ်ငန်းအလိုက် စစ်ထုတ်နိုင်သည်။
|
59
|
The default model used in our previous example was gpt2, but there are many more models available, and not just in English.
|
ကျွန်ုပ်တို့၏ ယခင်ဥပမာတွင် အသုံးပြုခဲ့သော မူလမော်ဒယ်မှာ gpt2 ဖြစ်သော်လည်း အင်္ဂလိပ်ဘာသာအပြင် အခြားမော်ဒယ်များစွာကိုလည်း ရရှိနိုင်သည်။
|
60
|
Let's go back to the text generation pipeline and load it with another model, distilgpt2.
|
စာသားထုတ်လုပ်မှု pipelineသို့ ပြန်သွားပြီး distilgpt2 ဟူသော အခြားမော်ဒယ်ဖြင့် တင်ကြည့်ရအောင်။
|
61
|
This is a lighter version of gpt2 created by the Hugging Face team.
|
၎င်းသည် Hugging Face အဖွဲ့မှ ဖန်တီးထားသော gpt2 ၏ ပိုမိုပေါ့ပါးသည့် ဗားရှင်းတစ်ခု ဖြစ်သည်။
|
62
|
When applying the pipeline to a given prompt, we can specify several arguments such as the maximum length of the generated texts, or the number of sentences we want to return, since there is some randomness in the generation.
|
pipelineကို ပေးထားသော စာသားတစ်ခုပေါ်တွင် အသုံးချသည့်အခါ ထုတ်လုပ်မည့် စာသားများ၏ အများဆုံးအရှည် သို့မဟုတ် ပြန်လိုချင်သော စာကြောင်းအရေအတွက် စသည့် ကန့်သတ်ချက်များစွာကို သတ်မှတ်နိုင်သည်။ အဘယ်ကြောင့်ဆိုသော် ထုတ်လုပ်မှုတွင် ကျပန်းဖြစ်မှုအချို့ ပါဝင်သောကြောင့် ဖြစ်သည်။
|
63
|
Generating texts by guessing the next word in a sentence was the pretraining objective of GPT-2.
|
ဝါကျတစ်ကြောင်းရှိ နောက်လာမည့် စကားလုံးကို ခန့်မှန်းခြင်းဖြင့် စာသားများ ထုတ်လုပ်ခြင်းသည် GPT-2 ၏ ကြိုတင်လေ့ကျင့်မှု ရည်မှန်းချက်ဖြစ်သည်။
|
64
|
The fill mask pipeline is the pretraining objective of BERT, which is to guess the value of masked word.
|
fill mask pipeline သည် ဖုံးကွယ်ထားသော စကားလုံး၏ တန်ဖိုးကို ခန့်မှန်းရန်ဖြစ်သည့် BERT ၏ ကြိုတင်လေ့ကျင့်မှု ရည်မှန်းချက်ဖြစ်သည်။
|
65
|
In this case, we ask the two most likely values for the missing words, according to the model, and get mathematical or computational as possible answers.
|
ဤကိစ္စတွင်၊ ကျွန်ုပ်တို့သည် ပျောက်ဆုံးနေသော စကားလုံးများအတွက် မော်ဒယ်၏ အဆိုအရ ဖြစ်နိုင်ခြေအများဆုံး တန်ဖိုးနှစ်ခုကို တောင်းဆိုခဲ့ရာ အဖြေများအဖြစ် mathematical သို့မဟုတ် computational တို့ကို ရရှိခဲ့သည်။
|
66
|
Another task Transformers model can perform is to classify each word in the sentence instead of the sentence as a whole.
|
Transformer မော်ဒယ်များ လုပ်ဆောင်နိုင်သည့် အခြားလုပ်ငန်းတစ်ခုမှာ ဝါကျတစ်ခုလုံးအစား ဝါကျအတွင်းရှိ စကားလုံးတစ်လုံးချင်းစီကို ခွဲခြားသတ်မှတ်ခြင်း ဖြစ်သည်။
|
67
|
One example of this is Named Entity Recognition, which is the task of identifying entities, such as persons, organizations or locations in a sentence.
|
၎င်း၏ ဥပမာတစ်ခုမှာ Named Entity Recognition ဖြစ်ပြီး ဝါကျတစ်ခုအတွင်းရှိ လူပုဂ္ဂိုလ်များ၊ အဖွဲ့အစည်းများ သို့မဟုတ် တည်နေရာများကဲ့သို့သော အဖွဲ့အစည်းများကို ဖော်ထုတ်ခြင်းလုပ်ငန်း ဖြစ်သည်။
|
68
|
Here, the model correctly finds the person, Sylvain, the organization, Hugging Face, as well as the location, Brooklyn, inside the input text.
|
ဤတွင်၊ မော်ဒယ်သည် ထည့်သွင်းစာသားအတွင်းရှိ ပုဂ္ဂိုလ် Sylvain၊ အဖွဲ့အစည်း Hugging Face နှင့် တည်နေရာ Brooklyn တို့ကို မှန်ကန်စွာ ရှာဖွေတွေ့ရှိခဲ့သည်။
|
69
|
The grouped_entities=True argument used is to make the pipeline group together the different words linked to the same entity, such as Hugging and Face here.
|
အသုံးပြုထားသော grouped_entities=True argument သည် Hugging နှင့် Face ကဲ့သို့ တူညီသောအဖွဲ့အစည်းနှင့် ချိတ်ဆက်ထားသည့် စကားလုံးအမျိုးမျိုးကို pipelineတစ်ခုတည်းအဖြစ် စုစည်းပေးရန် ဖြစ်သည်။
|
70
|
Another task available with the pipeline API is extractive question answering.
|
pipeline API ဖြင့် ရရှိနိုင်သော အခြားလုပ်ငန်းတစ်ခုမှာ မေးခွန်းထုတ်ယူဖြေကြားခြင်း ဖြစ်သည်။
|
71
|
Providing a context and a question, the model will identify the span of text in the context containing the answer to the question.
|
အကြောင်းအရာနှင့် မေးခွန်းတစ်ခုကို ပေးပို့လိုက်ပါက မော်ဒယ်သည် မေးခွန်း၏ အဖြေပါရှိသော အကြောင်းအရာအတွင်းရှိ စာသားအပိုင်းအစကို ဖော်ထုတ်ပေးပါလိမ့်မည်။
|
72
|
Getting short summaries of very long articles is also something the Transformers library can help with, with the summarization pipeline.
|
အလွန်ရှည်လျားသော ဆောင်းပါးများကို အတိုချုံးချုပ်ရိုးချုပ်ခြင်းသည်လည်း summarization pipeline ဖြင့် Transformers library က ကူညီပေးနိုင်သော လုပ်ငန်းတစ်ခုဖြစ်သည်။
|
73
|
Finally, the last task supported by the pipeline API is translation.
|
နောက်ဆုံးအနေနဲ့ pipeline API က ပံ့ပိုးပေးတဲ့ နောက်ဆုံးလုပ်ငန်းကတော့ ဘာသာပြန်ခြင်း ဖြစ်သည်။
|
74
|
Here we use a French/English model found on the model hub to get the English version of our input text.
|
ဤတွင် ကျွန်ုပ်တို့၏ ထည့်သွင်းစာသားကို အင်္ဂလိပ်ဘာသာသို့ ပြောင်းလဲရန်အတွက် model hub တွင် တွေ့ရှိရသော ပြင်သစ်/အင်္ဂလိပ် မော်ဒယ်ကို အသုံးပြုထားသည်။
|
75
|
Here is a brief summary of all the tasks we've looked into in this video.
|
ဤဗီဒီယိုတွင် ကျွန်ုပ်တို့ လေ့လာခဲ့သည့် လုပ်ငန်းများအားလုံးကို အကျဉ်းချုပ် ဖော်ပြထားသည်။
|
76
|
Try then out through the inference widgets in the model hub.
|
ထိုလုပ်ငန်းများကို model hub ရှိ inference widgets များမှတစ်ဆင့် စမ်းသပ်ကြည့်ပါ။
|
77
|
So let's talk about the carbon footprint of transformers.
|
Transformer များ၏ ကာဗွန်ခြေရာအကြောင်း ပြောကြည့်ရအောင်။
|
78
|
Maybe you've seen headlines such as this one that training a single AI model can emit as much carbon as five cars in their lifetimes.
|
AI မော်ဒယ်တစ်ခုတည်းကို လေ့ကျင့်ပေးခြင်းက ကားငါးစီး၏ သက်တမ်းတစ်လျှောက် ထုတ်လွှတ်သော ကာဗွန်ပမာဏနှင့် ညီမျှနိုင်သည်ဟူသော ခေါင်းစီးမျိုး သင်တွေ့ဖူးပေမည်။
|
79
|
So when is this true and is it always true?
|
ဒါဆို ဒါက ဘယ်အချိန်မှာ မှန်သလဲ၊ အမြဲတမ်း မှန်သလား။
|
80
|
Well, it actually depends on several things.
|
တကယ်တော့ ဒါက အချက်များစွာပေါ် မူတည်သည်။
|
81
|
Most importantly, it depends on the type of energy you're using.
|
အရေးအကြီးဆုံးကတော့ သင်အသုံးပြုနေသည့် စွမ်းအင်အမျိုးအစားပေါ် မူတည်သည်။
|
82
|
If you're using renewable energy such as solar, wind, hydroelectricity, you're really not emitting any carbon at all, very, very little.
|
နေရောင်ခြည်၊ လေအား၊ ရေအားလျှပ်စစ် စသည့် ပြန်လည်ပြည့်ဖြိုးမြဲစွမ်းအင်ကို အသုံးပြုနေပါက ကာဗွန် လုံးဝနီးပါး သို့မဟုတ် အနည်းငယ်သာ ထုတ်လွှတ်သည်။
|
83
|
If you're using non-renewable energy sources such as coal then their carbon footprint is a lot higher 'cuz essentially you are emitting a lot of greenhouse gases.
|
ကျောက်မီးသွေးကဲ့သို့ ပြန်လည်မပြည့်ဖြိုးနိုင်သော စွမ်းအင်အရင်းအမြစ်များကို အသုံးပြုပါက ဖန်လုံအိမ်ဓာတ်ငွေ့များစွာကို ထုတ်လွှတ်နေသောကြောင့် ၎င်းတို့၏ ကာဗွန်ခြေရာသည် များစွာ ပိုမြင့်သည်။
|
84
|
Another aspect is training time.
|
နောက်တစ်ချက်ကတော့ လေ့ကျင့်ချိန် ဖြစ်သည်။
|
85
|
So the longer you train, the more energy you use the more energy you use, the more carbon you emit, right?
|
ဒါကြောင့် သင်ကြာကြာ လေ့ကျင့်လေလေ၊ စွမ်းအင်ပိုသုံးလေလေ၊ ကာဗွန်ပိုထုတ်လွှတ်လေလေ ဖြစ်သည်။
|
86
|
So this really adds up especially if you're training large models for for hours and days and weeks.
|
ဒါကြောင့် ဒါတွေက အထူးသဖြင့် ကြီးမားတဲ့ မော်ဒယ်တွေကို နာရီများစွာ၊ ရက်ပေါင်းများစွာနဲ့ ရက်သတ္တပတ်တွေအထိ လေ့ကျင့်တဲ့အခါ တကယ်ကို စုပုံလာနိုင်သည်။
|
87
|
The hardware you use also matters because some GPUs, for example, are more efficient than others and utilizing efficiency use properly.
|
သင်အသုံးပြုသည့် ဟာ့ဒ်ဝဲလည်း အရေးကြီးသည်၊ အဘယ်ကြောင့်ဆိုသော် ဥပမာအားဖြင့် GPU အချို့ဟာ တခြား GPU တွေထက် ပိုမိုစွမ်းဆောင်ရည်မြင့်မားပြီး စွမ်းဆောင်ရည်ကို ကောင်းစွာအသုံးချနိုင်သောကြောင့် ဖြစ်သည်။
|
88
|
So using them a hundred percent all the time can really reduce the energy consumption that you have.
|
ဒါကြောင့် ၎င်းတို့ကို အချိန်ပြည့် ၁၀၀ ရာခိုင်နှုန်း အသုံးပြုခြင်းက သင့်ရဲ့ စွမ်းအင်သုံးစွဲမှုကို တကယ်ပဲ လျှော့ချနိုင်သည်။
|
89
|
And then once again, reduce your carbon footprint.
|
အဲဒီအခါမှာ သင့်ရဲ့ ကာဗွန်ခြေရာကို ထပ်မံလျှော့ချနိုင်မှာ ဖြစ်သည်။
|
90
|
There's also other aspects such as IO such as data, et cetera, et cetera.
|
IO နှင့် ဒေတာ စသည့် အခြားကဏ္ဍများလည်း ရှိပါသေးသည်။
|
91
|
But these are the main three that you should focus on.
|
သို့သော် ဤသုံးချက်ကတော့ သင်အဓိက အာရုံစိုက်သင့်သည့် အချက်များ ဖြစ်သည်။
|
92
|
So when I talk about energy sources and carbon intensity what does that really mean?
|
ဒါဆို ကျွန်တော် စွမ်းအင်အရင်းအမြစ်တွေနဲ့ ကာဗွန်ပြင်းအားအကြောင်း ပြောတဲ့အခါ အဲဒါက တကယ်တော့ ဘာကိုဆိုလိုသလဲ။
|
93
|
So if you look at the top of the screen you have a carbon footprint of a cloud computing instance in Mumbai, India which emits 920 grams of CO2 per kilowatt hour.
|
မျက်နှာပြင်ရဲ့ ထိပ်မှာ ကြည့်မယ်ဆိုရင် အိန္ဒိယနိုင်ငံ မွန်ဘိုင်းရှိ cloud computing instance တစ်ခုရဲ့ ကာဗွန်ခြေရာကို တွေ့ရမှာပါ၊ ၎င်းသည် တစ်နာရီ ကီလိုဝပ်လျှင် CO2 ၉၂၀ ဂရမ် ထုတ်လွှတ်သည်။
|
94
|
This is almost one kilogram of CO2 per kilowatt hour of electricity used.
|
ဒါက အသုံးပြုတဲ့ လျှပ်စစ်ဓာတ်အား တစ်နာရီ ကီလိုဝပ်လျှင် CO2 တစ်ကီလိုဂရမ် နီးပါးရှိသည်။
|
95
|
If you compare that with Canada, Montreal where I am right now, 20 grams of CO2 per kilo hour.
|
ဒါကို ကျွန်တော် ခုရောက်နေတဲ့ ကနေဒါနိုင်ငံ၊ Montreal နဲ့ နှိုင်းယှဉ်ကြည့်ရင် တစ်နာရီ ကီလိုဝပ်လျှင် CO2 ၂၀ ဂရမ်ပဲ ရှိသည်။
|
96
|
So that's a really, really big difference.
|
ဒါဟာ တကယ်ကို ကြီးမားတဲ့ ကွာခြားချက်တစ်ခု ဖြစ်သည်။
|
97
|
Almost more than 40 times more carbon emitted in Mumbai versus Montreal.
|
Montreal နဲ့ယှဉ်ရင် မွန်ဘိုင်းမှာ ကာဗွန်ထုတ်လွှတ်မှုက အဆ ၄၀ ကျော် ပိုများသည်။
|
98
|
And so this can really, really add up.
|
ဒါကြောင့် ဒါတွေက တကယ်ပဲ စုပုံလာနိုင်သည်။
|
99
|
If you're training a model for weeks, for example you're multiplying times 40 the carbon that you're emitting.
|
ဥပမာအားဖြင့် သင်က မော်ဒယ်တစ်ခုကို ရက်သတ္တပတ်တွေအထိ လေ့ကျင့်နေမယ်ဆိုရင် သင်ထုတ်လွှတ်တဲ့ ကာဗွန်ကို အဆ ၄၀ နဲ့ မြှောက်နေတာနှင့် တူသည်။
|
100
|
So choosing the right instance choosing a low carbon compute instance is really the most impactful thing that you can do.
|
ဒါကြောင့် သင့်တော်တဲ့ instance ကို ရွေးချယ်တာ၊ ကာဗွန်နည်းတဲ့ compute instance ကို ရွေးချယ်တာဟာ သင်လုပ်ဆောင်နိုင်တဲ့ အကျိုးသက်ရောက်မှု အရှိဆုံးအရာ ဖြစ်သည်။
|
HFcourse-English-Burmese-Parallel-Corpus
Dataset Description
Dataset Summary
The HFcourse-English-Burmese-Parallel-Corpus is a collection of English and Burmese parallel sentence pairs, specifically designed to support research and development in Neural Machine Translation (NMT) for the Myanmar language. It comprises 2,503 meticulously aligned sentence pairs, extracted from the subtitles of the Hugging Face Course videos. This dataset aims to enrich the available resources for Myanmar language processing in AI and Machine Learning fields, thereby fostering advancements in these areas.
Languages
The dataset contains text in two languages:
- English (en)
- Burmese (my)
Purpose
This dataset was created with the primary goals of:
- Training Neural Machine Translation (NMT) Models: Providing high-quality parallel data to train and evaluate NMT systems for English-Burmese translation.
- Enhancing Myanmar Language Resources: Contributing to the growing body of computational linguistic resources for the Burmese language, which is crucial for its development in AI and ML.
- Facilitating Research and Development: Supporting researchers and developers in creating more robust and accurate language technologies for Myanmar speakers.
Dataset Structure
Data Instances
Each instance in the dataset represents an aligned English and Burmese sentence pair. Here are examples:
{
"id": 1,
"English": "Welcome to the Hugging Face Course.",
"Burmese": "Hugging Face သင်တန်းမှ ကြိုဆိုပါတယ်။"
}
{
"id": 2,
"English": "This course has been designed to teach you all about the Hugging Face ecosystem, how to use the dataset and model hub as well as all our open-source libraries.",
"Burmese": "ဒီသင်တန်းကို Hugging Face ရဲ့ ဂေဟစနစ် အကြောင်း၊ dataset နဲ့ model hub တွေကို ဘယ်လိုအသုံးပြုရမလဲ၊ ကျွန်ုပ်တို့ရဲ့ open-source library တွေအားလုံးကို ဘယ်လိုသုံးရမလဲဆိုတာတွေကို သင်ကြားပေးဖို့ ရေးဆွဲထားတာပါ။"
}
{
"id": 3,
"English": "Here is the Table of Contents.",
"Burmese": "ဒီမှာတော့ သင်တန်းရဲ့ အကြောင်းအရာများ အညွှန်း ဖြစ်ပါတယ်။"
}
Data Fields
The dataset is provided in a CSV format with the following fields:
id: (int) A unique identifier for each sentence pair.English: (str) The English sentence.Burmese: (str) The corresponding Burmese translation.
Data Splits
The dataset currently consists of a single split:
- Total Instances: 2,503
As it's primarily intended for training and research, users may create their own training, validation, and test splits as needed.
Dataset Creation
Source Data
The data originates from the subtitles of the 🤗 Hugging Face Course videos (Video 80). The original playlist can be found here. The subtitles were extracted and then meticulously converted into paired English-Burmese sentences.
Annotations
The dataset does not contain manual annotations beyond the initial translation and alignment process derived from the original subtitles. The pairing of English and Burmese sentences is considered a form of annotation, where each Burmese sentence is the translation of its corresponding English sentence.
Cleaning Steps
The raw subtitle data underwent the following cleaning procedures:
- Duplicate Removal: Identified and eliminated any exact duplicate sentence pairs to ensure data uniqueness.
- Structural Repair: Addressed and resolved CSV parsing errors to maintain data integrity and consistent formatting.
- Manual Review: A thorough manual review was conducted to ensure the accuracy of the sentence pairings and overall data quality.
Considerations for Using the Data
Domain Specificity
This dataset is highly focused on technical terminology, particularly in the fields of machine learning, large language models (LLMs), and general artificial intelligence concepts. Users should be aware that while it provides excellent coverage for this domain, its applicability to other domains (e.g., general conversation, news, legal) might be limited without further domain adaptation.
License
The HFcourse-English-Burmese-Parallel-Corpus is released under the Creative Commons Attribution 4.0 International (CC BY 4.0) License.
This means you are free to:
- Share: copy and redistribute the material in any medium or format.
- Adapt: remix, transform, and build upon the material for any purpose, even commercially.
Under the following terms:
- Attribution: You must give appropriate credit, provide a link to the license, and indicate if changes were made. You may do so in any reasonable manner, but not in any way that suggests the licensor endorses you or your use.
When using this dataset, please provide attribution to the original creator and the dataset itself. For example, by citing this dataset card.
Citation
If you use this dataset in your research or project, please cite it as follows:
@dataset{hfcourse_english_burmese_parallel_corpus_2025,
title = {HFcourse-English-Burmese-Parallel-Corpus},
author = {Khant Sint Heinn},
year = {2025},
publisher = {Hugging Face Datasets},
url = {https://huggingface.co/datasets/kalixlouiis/HFcourse-english-burmese-parallel-corpus},
license = {CC BY 4.0}
}
Contact
For any questions or inquiries regarding this dataset, please feel free to contact the dataset creator: Khant Sint Heinn(Kalix Louis).
- Downloads last month
- 50