Cel mai bun răspuns
Am venit să recomand și pytesseract (pe care alții l-au recomandat deja), este super tare.
Adesea, deși depinde de domeniul dvs., așa că ar merita să o faceți „în casă”.
Dacă rămâneți la python, este destul de simplu să folosiți funcțiile de skimage regionprops , etichetă , clear\_border , threshold\_otsu și hog (Histograma gradienților) pentru a alimenta un Chars74k clasificator. În unele domenii, bibliotecile OCR disponibile nu se potrivesc prea bine, deoarece în unele cazuri OCR există caracteristici specifice în setul de date, care sunt puțin niște domeniului dvs. (semne stradale înclinate de la camele de bord, traducere anime cu cadru p scăzut valoare în timpul comprimării sau întrepătrunderii de pe clona DVD, artefacte jpeg în scanări pdf etc.).
Am auzit că OCRopus ar merita să fie analizat (nu l-am folosit personal), deoarece „ folosește tesseract-ocr, dar adaugă analiza aspectului. ”
Răspuns
Acest lucru depinde într-adevăr de cât de granulară / clar este imaginea ta.
O problemă recurentă în ceea ce privește recunoașterea tiparului, în general, este claritatea imaginii.
O provocare constantă care revine în continuare, este faptul că, deși putem avea moderată / mare succes cu imagini clare ..
Acest lucru nu este cazul cu imaginile care nu sunt clare.
Adică, de aceea trebuie să avem Machine Learning și Deep Learning, astfel încât să putem „filtra” marja de eroare despre cât de corectă este evaluarea noastră.
Cu toate acestea, cred, dacă imaginea dvs. este clară, vă pot recomanda Tesseract OCR.
În afară de asta, ați putea, de asemenea, încercați 4.2. Extragerea caracteristicilor
Deși, aș dori să subliniez că, ca întotdeauna, rareori există o cale ușoară „clară”.
Va fi întotdeauna în raport cu ce fel de abordare luați, cât de matematic, cât de granular și ce instrumente aveți la dispoziție.
Mult noroc.