BERTによる自然言語処理を学ぼう! -Attention、TransformerからBERTへとつながるNLP技術-

Rating 4.06 out of 5 (537 ratings in Udemy)
What you'll learn
- BERT、Transformer、Attentionの仕組み。
- PyTorch、ライブラリTransformersを使用したBERTの実装。
- 学習済みモデルのファインチューニングによる調整。
- 日本語の文章、および英文のBERTによる分類。
- 自然言語処理技術の概要。
Description
自然言語処理の様々なタスクで高い性能を発揮する、「BERT」を学ぶコースです。
BERT(Bidirectional Encoder Representations from Transformers )は2018年10月にGoogleが公開して以来、世界中のAI関係者の注目を集めています。
BERTは「Transformer」と呼ばれるモデルを利用することで、離れた単語間の関係、すなわち「文脈」を考慮した自然言語処理を実現します。
タスクによっては人間並みの精度を発揮する可能性もあり、「応答文の生成」や「文書の要約」といった様々なタスクでの活用が期待されていま …
Duration 4 Hours 58 Minutes
Paid
Self paced
Intermediate Level
Japanese
3434
Rating 4.06 out of 5 (537 ratings in Udemy)
Go to the Course
We have partnered with providers to bring you collection of courses, When you buy through links on our site, we may earn an affiliate commission from provider.
Paid
Self paced
Intermediate Level
Japanese
3434
Rating 4.06 out of 5 (537 ratings in Udemy)
Go to the Course