Najlepsza odpowiedź
Ludzie czytają teksty. Teksty składają się ze zdań, a także zdania składają się ze słów. Istoty ludzkie mogą łatwo zrozumieć struktury językowe i ich znaczenie, ale maszyny nie radzą sobie jeszcze wystarczająco dobrze w zrozumieniu języka naturalnego. Dlatego staramy się uczyć maszyn niektórych języków, tak jak robimy to w szkole podstawowej. To jest główna koncepcja; słowa to podstawowe, znaczące elementy, które mogą przedstawiać inne znaczenie, gdy znajdują się w zdaniu. W tym miejscu pamiętamy, że czasami grupy słów zapewniają więcej korzyści niż tylko jedno słowo przy wyjaśnianiu znaczenia. Oto nasze zdanie „ Przeczytałem książkę o historii Ameryki. „ Maszyna chce uzyskać znaczenie zdania, dzieląc je na małe części. Jak to zrobić? 1. Potrafi rozpatrywać słowa po kolei. To jest unigram ; każde słowo to gram. „Ja”, „czytaj”, „a”, „książka”, „informacje”, „to”, „historia”, „z”, „Ameryka” 2. Może uwzględniać dwa słowa jednocześnie. To jest bigram ( digram ); każde dwa sąsiednie słowa tworzą bigram. „Czytam”, „czytam”, „książkę”, „książkę o”, „o”, „historia”, „historia”, „Ameryka” 3. Może uwzględniać trzy słowa jednocześnie. To jest trygram ; każde trzy sąsiednie słowa tworzą trygram. „Czytałem”, „czytałem książkę”, „książkę o”, „książkę o”, „o historii”, „historii”, „historii Ameryki”
Odpowiedź
Być może twoje pytanie bardziej przypomina „co to jest bigram / trygram” i dlaczego miałbym go potrzebować?
Jeśli tak, oto moja odpowiedź: Chodzi o to, aby (statystyczne ) przewidywania dotyczące tego, co dzieje się w zdaniu. Może się zdarzyć, że następne słowo pojawi się jako następne lub element należący do określonej klasy słów (na przykład: naprawdę oczekuję czasownika po wyrażeniu „Facet powiedział, że miał…”. Twoje przewidywania będą lepsze, jeśli weźmiesz pod uwagę wszystko od początku * * do * miał *, co utworzy 7-gramowy (sześć predyktorów i siódmy do przewidzenia). Problem polega na tym, że dane stają się zbyt rzadkie do prognozowania na podstawie n + 1-gramów, kiedy n jest liczbą większą niż… 2 (a może 4)! Powyższy przykład to 6 + 1-gram. Więc ludzie pracują z przybliżeniami takimi jak bigram (1 + 1-gram ) i trygramów (2 + 1-gram). Bigram przewiduje przewidywanie słowa na podstawie poprzedniego, a trygram przewiduje słowo na podstawie dwóch wcześniejszych słów.
w rzeczywistości nie ma prawdziwych aplikacji dla bigramów (jeśli pamiętam), ale trygramy działają dobrze. Unigram składa się po prostu ze słowa i jedyny zysk, jaki można uzyskać z unigramu w Może być tak, że predyktorem jest częstotliwość słowa, zamiast pozwalać absolutnemu wszystkiemu na występowanie z równym rozkładem. (Dla Englisch, unigramy dają ci coś w rodzaju „najbardziej prawdopodobnym słowem jest zawsze„ the ”; bigram daje ci coś w rodzaju„ mieć ”nie jest tak naprawdę prawdopodobne po„ the ”, a trygram daje ci„ jabłko ”jest całkiem możliwe po „zgniłych”.