We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
日本語・英語・コードの3種類の言語資源について、LLMの事前学習コーパス上の混合比を変化させると最終的にモデルにどういう影響が現れるかを調査する。
モデルカードPR: https://github.com/llm-jp/model-cards/pull/{id}
言語資源の混合比を以下の式で定め、
$$ \begin{array}{rcl} m_J, m_E, m_C & \in & [0, 1] \\ m_J + m_E + m_C & = & 1 \end{array} $$
この凸包上から満遍なく点(=一つの混合比のセット)をサンプリングし、これを用いて事前学習コーパスの重みを計算、LLMの学習を行う。
{physical path}
{cluster}:/data/experiments/{number}
The text was updated successfully, but these errors were encountered:
No branches or pull requests
Overview
日本語・英語・コードの3種類の言語資源について、LLMの事前学習コーパス上の混合比を変化させると最終的にモデルにどういう影響が現れるかを調査する。
Details
モデルカードPR: https://github.com/llm-jp/model-cards/pull/{id}
言語資源の混合比を以下の式で定め、
この凸包上から満遍なく点(=一つの混合比のセット)をサンプリングし、これを用いて事前学習コーパスの重みを計算、LLMの学習を行う。
Resources
{physical path}
{cluster}:/data/experiments/{number}
The text was updated successfully, but these errors were encountered: