“Kaggleのコンペティションに参加して得た、事前学習モデルのfine-tuningのTipsを共有”

misshikimisshiki のブックマーク 2023/01/23 17:02

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

Kaggleで学んだBERTをfine-tuningする際のTips①〜学習効率化編〜 | 株式会社AI Shift

    こんにちは AIチームの戸田です 近年、自然言語処理タスクにおいて、BERTを始めとするTransformerをベースとした事前学習モデルを感情分類や質問応答などの下流のタスクでfine-tuningする手法が一般的になってい...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう