Najlepsza odpowiedź
Przyszedłem też polecić pytesseract (który inni już polecali), jest super.
Często zależy to od Twojej domeny, więc warto zrobić to „na miejscu”.
Jeśli trzymasz się Pythona, korzystanie z funkcji przeglądania jest całkiem proste regionprops , label , clear\_border , threshold\_otsu i hog (Histogram of Gradients), aby nakarmić Chars74k klasyfikator. W niektórych domenach dostępne biblioteki OCR nie pasują zbyt dobrze, ponieważ w niektórych przypadkach OCR istnieją określone funkcje w Twoim zestawie danych, które są nieco niszowe dla Twojej domeny (przekrzywione znaki drogowe z kamer samochodowych, tłumaczenie anime z niską ramką p wartość podczas kompresji lub przeplotu z klonu DVD, artefaktów jpeg w skanach pdf itp.).
Słyszałem, że OCRopus może być również wart uwagi (nie używałem go osobiście), ponieważ „ używa tesseract-ocr, ale dodaje analizę układu. ”
Odpowiedź
To naprawdę zależy od stopnia szczegółowości / wyraźnego obrazu.
Powtarzającym się problemem w zakresie rozpoznawania wzorców jest ogólnie przejrzystość obrazu.
Ciągłym wyzwaniem, które powraca, jest fakt, że chociaż możemy mieć umiarkowane / wielki sukces z wyraźnymi obrazami ..
Nie dotyczy to zdjęć, które nie są wyraźne.
To znaczy, dlatego musimy mieć uczenie maszynowe i uczenie głębokie, abyśmy mogli „odfiltrować” margines błędu w tym, jak poprawna jest nasza ocena.
Jednak wydaje mi się, że jeśli zdjęcie jest wyraźne, mogę polecić Tesseract OCR.
Poza tym możesz również, wypróbuj 4.2. Wyodrębnianie cech
Chociaż chciałbym podkreślić, że jak zwykle rzadko istnieje „prosta droga”.
Zawsze będzie w odniesieniu do tego, jakie podejście podejmiesz, jak matematyczne, jak szczegółowe i jakie narzędzia masz do dyspozycji.
Powodzenia.