この記事では、独自のGPTチャットAIをゼロからトレーニングするプロセスについて説明します。
- 注:この記事の焦点は、既存のAIモジュールを微調整(Fine-Tuning)することではなく、あなたの入力テキストから会話スキルを学習するAIを訓練することです。
- OpenAIは多くのリソースと新しい技術を投入しているため、ChatGPTに近いものを訓練することを期待すべきではありません。(笑
十分なデータ(例:Wikipediaのすべてのコンテンツ)があれば、GPT-2に似たモデルをトレーニングすることが可能です。
https://openai.com/research/better-language-models
本記事では、日本語で書かれた 自分の88本のQiita記事 をデータソースとしてAIをトレーニングします(笑 このデータセットは非常に限られており、結果は最適ではありませんのでご注意ください。
この記事では、AIに関する経験がなくても手順に従って進められるように、段階的に説明します。