週刊アスキー

  • Facebookアイコン
  • Twitterアイコン
  • RSSフィード

Laboro.AI、日本語版「BERT」モデルを無償公開

2020年04月17日 15時00分更新

 Laboro.AI(ラボロエーアイ)は4月17日、研究開発の一環として、近年AIの自然言語処理領域で注目を集めるアルゴリズム「BERT(Bidirectional Encoder Representations from Transformers)」を独自に収集した、ウェブテキスト情報をもとに事前学習させたオリジナル日本語版モデルを開発し、オープンソースとして公開したと発表。

 約4300のウェブサイト、計260万以上のウェブページに掲載されていたテキスト情報を独自に収集したコーパス(言語データベース)を用いて事前学習させたもの。同社で実施した文章分類などの検証結果では、一般的なデータに基づくモデルの精度と並んで高い性能を持つことが確認できたという。

 同社では今後も、AIに関わる各種技術領域での研究開発に取り組むのはもちろん、機械学習技術を用いたオーダーメイドAIソリューション「カスタムAI」をより多くの産業の企業に導入してもらうことを目指すとしている。

この記事をシェアしよう

週刊アスキーの最新情報を購読しよう

本記事はアフィリエイトプログラムによる収益を得ている場合があります