2021 / 08 / 01
11:30 ~ 12:00
TR409-1
Google 技術 x 公共參與 x 開源
一個大規模跨國語言的預訓練模型MT5
by
Jerry
分享Google最新發表的語言模型Multilingual T5,該模型訓練資料來自mC4,因此模型具備大規模數據、超過100種跨國語言的理解能力,同時也是一個Text-to-Text的Transformer Model,因此可以應用在多個自然語言理解任務(NLU),是一個比BERT更為強大與成熟的新方法。
About Jerry
JerryWu是一名資料科學家兼AI創業家,目前擔任Google機器學習開發專家(Google Developers Expert),並且擁有一間專注於自然語言理解(NLU)研發的公司亞太智能機器(APMIC OpenTalk),他擅長分享關於機器學習技術在商務應用上的實踐,是一名熱愛教學的老師,也曾發布多篇文章在期刊與網路上。