Utviklet av | Google Research ( d ) |
---|---|
Første versjon | 2018 |
Innskudd | github.com/google-research/bert |
Datastørrelse | 110.000.000 parameter og 340.000.000 parameter |
Type |
Språkmodell Transformermodell |
Tillatelse | Apache-lisens versjon 2.0 |
Nettsted | ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html |
I naturlig språkbehandling er BERT , akronym for Bidirectional Encoder Representations from Transformers , en språkmodell utviklet av Google i 2018. Denne metoden har forbedret ytelsen i automatisk språkbehandling .
De 25. oktober 2019, Kunngjør Google offisielt at BERT nå er integrert i noen av sine tjenester for selskaper (Cloud TPU , bibliotek for TensorFlow ) og at distribusjonen vil finne sted de neste dagene, først for engelsk, deretter de andre. Mountain View-firmaet kvalifiserer denne endringen som den viktigste endringen i Googles algoritme i 5 år, da RankBrain ble lansert.
Metoden ble tilpasset det franske språket i 2019 med CamemBERT og FlauBERT-modellene. CamemBERT ble trent på et korpus på 138 GB tekst og FlauBERT på et korpus på 71 GB tekst.