Více

Když se rastrová vrstva překrývá, odstraňte nežádoucí bílá pásma

Když se rastrová vrstva překrývá, odstraňte nežádoucí bílá pásma


V mém projektu, když se rastrové vrstvy překrývají, se objeví okraj horní vrstvy.

Jak jej mohu odstranit a dosáhnout plynulého překrývání rastru?

(Snažil jsem se postavit vrt s těmito vrstvami, ale pásy s zůstaly)

Pracuji s QGIS 2.4

Zde je příklad jevů (každá vrstva má 10% průhlednost)

Zde je výstup gdalinfo jednoho z rastrůOvladač: GTiff/GeoTIFF Soubory: /vdata/scot_009h_georef.tif Velikost je 5985, 2349 Souřadnicový systém je: GEOGCS ["WGS 84", DATUM ["WGS_1984", SPHEROID ["WGS 84", 6378137,298.257223563, AUTHORITY [EPS] "," 7030 "]], AUTHORITY [" EPSG "," 6326 "]], PRIMEM [" Greenwich ", 0], UNIT [" stupeň ", 0,0174532925199433], AUTHORITY [" EPSG "," 4326 "]] Původ = (-3.873394354081865,58.119237085214102) Velikost pixelu = (0,000601740178426, -0,000601740178426) Metadata: AREA_OR_POINT = Metadata struktury obrazu plochy: COMPRESSION = LZW INTERLEAVE = Souřadnice rohů PIXEL: 532,224 " 7 '9,25 "N) vlevo dole (-3,8733944, 56,7057494) (3d52'24,22" W, 56d42'20,70 "N) vpravo nahoře (-0,2719794, 58,1192371) (0d16'19,13" W, 58d 7' 9,25 "N) nižší Vpravo (-0,2719794, 56,7057494) (0d16'19,13 "W, 56d42'20,70" N) Střed (-2,0726869, 57,4124932) (2d 4'21,67 "W, 57d24'44,98" N) Pásmo 1 Blok = 5985x1 Typ = Byte, ColorInterp = červená NoData Hodnota = 0 Pásmo 2 Blok = 5985x1 Typ = Bajt, ColorInterp = Zelená Hodnota NoData = 0 Pásmo 3 Blok = 59 85x1 Typ = Byte, ColorInterp = Blue NoData Hodnota = 0


Možnost 1

Objevili jste jednu možnost - přidání 255 k „Další žádné hodnotě“ ve vlastnostech vrstvy/průhlednosti.

Možnost 2

Další možností je použít VRT, definovat 255 jako hodnotu zdrojového uzlu a definovat 0 jako hodnotu VRT bez dat pomocí gdalbuildvrt.

Například:

gdalbuildvrt -srcnodata 255 -vrtnodata 0 out.vrt in.tif

Chcete -li to provést na všech tiffech ve složce, použijte něco jako následující (za předpokladu, že používáte bash shell na OSX/Linux/Unix na základě cesty ve vašemgdalinfovýstup):

pro f v *.tif; do gdalbuildvrt -srcnodata 255 -vrtnodata 0 "$ {f%.*}". vrt "$ f"; Hotovo

Možnost 3

Třetí možností, která ve skutečnosti trvale ořízne bílé límce a nezmění bílé pixely bez límce na NoData, je GDAL téměř černé užitečnost.

Například:

nearblack -of gtiff -nb 0 -color white -near 0 -o decollar.tif collar.tif

Chcete -li to provést na všech tiffech ve složce, použijte něco jako následující:

pro f v *.tif; do nearblack -of gtiff -nb 0 -color white -near 0 -o "$ {f%.*}" -decollared.tif "$ f"; Hotovo

Poznámka"$ {f%.*}"je syntaxe rozšíření parametru bash pro získání názvu souboru bez přípony.


Obrázky: Vzory a doporučení pro správu dat

Datové sady Mosaic umožňují uživatelům přístup k jednomu zdroji, aby získali potřebná data - zjednodušení údržby a vývoje aplikací. K tabulce (katalogu) lze přistupovat, což uživatelům umožňuje dotazovat se na mozaikovou datovou sadu a přistupovat ke každé položce v ní uložené, zatímco mozaikový obrázek lze použít jako rastrovou datovou sadu - jeví se jako jedna souvislá datová sada a lze ji zpracovat pomocí nástrojů používaných ke zpracování rastr.

Mohou být extrémně velké jak v celkové velikosti souboru, tak v počtu rastrových datových sad. Neovládají zdrojová data, ale obsahují ukazatele na zdrojová data.

Jsou vytvářeny, upravovány a spravovány pomocí nástrojů v sadě nástrojů Mosaic Dataset v sadě nástrojů pro správu dat.


Režim sjednocení aplikace Illustrator a#39 s vyplňuje celou vrstvu

Snažím se znovu vytvořit tuto sekci v tutoriálu, který jsem dokončil začátkem tohoto týdne. Začínám stopou, kterou jsem vytvořil, která se skládá z cest a cest s vlastními šířkovými profily a použitými tahy. Celá kresba byla seskupena.

Nyní, po tutoriálu (reference začíná v 3:58), rozbalím vzhled, abych tahy převedl na tvary, a rozbalím celou kompozici, abych převedl cesty na tvary, čímž získám jednotlivé tvary, které se navzájem překrývají.

Rozumím tomu, že nyní kliknutím na sjednotit připojím všechny zahrnuté tvary do jediné vektorové kompozice. Ale když kliknu na sjednotit, změní se to na černý čtverec.

Zkoušel jsem znovu přečíst funkci sjednocení a zkontroloval jsem masky, protože jsem měl jednu dříve (kterou jsem vydal), ale nemohu přijít na to, co mi chybí.


Abstraktní

Analýzy viditelnosti se staly samozřejmostí v rámci archeologického výzkumu založeného na krajině, ať už prostřednictvím bohatého popisu, jednoduchého mapování nebo formálního modelování a statistické analýzy, přičemž posledně jmenované se stále častěji provádějí pomocí funkce GIS zaměřené na pohled. Zde prezentovaný výzkum zpochybňuje současné posedlosti tím, co je viditelné, místo toho se zaměřuje na interpretační výhody zvažování neviditelného a komplexní souhru viditelnosti a skrývání, které často doprovázejí pohyb a zkušenosti krajiny. Po zdůraznění obtíží při analýze relačních vlastností, jako je neviditelnost a skrývání pomocí tradičních archeologických technik, je představena a vyhodnocena řada nových metodik GIS v kontextu původní studie série pozoruhodně malých, vizuálně neintruzivních prehistorických megalitických památek. Výsledky slouží ke zpochybnění dominantních interpretací těchto záhadných lokalit a také k prokázání užitečnosti, hodnoty a potenciálu vyvinutých přístupů založených na GIS.


5 odpovědí 5

Objekt> Rozbalit vzhled (je -li k dispozici)

Objekt> Rozbalit (klikněte na výplně a tahy a objekty [je -li k dispozici] a poté klikněte na ok)

Klikněte na tlačítko Sloučit na Panel Pathfinder (poznámka .. panel ne položka nabídky)

Použijte nástroj Direct Select (bílá šipka) a klikněte na něco bílého.

V nabídce vyberte Vybrat> Stejné> Vyplnit a zesílit tah.

Rozbalí všechny položky vzhledu, aby byly objekty a již nebyly dynamické

Rozšiřuje všechny tahy, takže jsou tvary (výplně), nikoli tahy. A nastiňuje všechny živé typy/obálky atd. (To nebude fungovat dobře, pokud máte přechody nebo objekty s přechodovou sítí - to je úplně jiná věc)

  • Vybrat vše
  • V nabídce vyberte Objekt> Zploštit průhlednost a přesuňte jezdec až na "vektor"

Použijte nástroj Direct Select (bílá šipka) a klikněte na něco bílého.

V nabídce zvolte Vybrat> Stejné> Vyplnit a zesílit tah.

První možnost vám obecně občas poskytne trochu větší kontrolu. Záleží na tom, jak přesně jsou věci konstruovány (na tutoriál jsem se nepodíval). Nakonec u většiny nekomplexních umění vás obě metody dostanou na stejné místo.

Za předpokladu, že chcete „zploštit“ své vektory a pak udělat, jak říká Scott, můžete však stejného výsledku nedestruktivně dosáhnout pomocí vyřazovací skupiny. Zda to potřebujete provést destruktivně nebo ne, závisí na vašich potřebách, pokud vytváříte výstup do rastrového formátu nebo jej importujete někam, kde ne potřebovat data cesty, pak toto smět být lepší (snadnější a lépe udržovatelná) možnost.

Vezměte si například tento vágně podobný konstrukt:

Seskupte logo (můžete jej také umístit na vlastní vrstvu a vrstvu použít).

Otevřete panel Průhlednost pro skupinu a zaškrtněte „Vyrazená skupina“ (možná budete muset dvakrát kliknout na políčko - aby mělo zaškrtnutí, nikoli řádek).

  1. Vyberte vše s bílou výplní pomocí nástroje pro přímý výběr (bílá šipka - A)
  2. Na panelu Vzhled otevřete panel Průhlednost pro bílou výplň (rozbalením položky „Vyplnit“ a kliknutím na „Neprůhlednost“) a nastavte neprůhlednost na „0“.

Pokud máte také nějaké bílé tahy, opakujte kroky 3 a 4 pro tahy.


Možnosti přístupu

Získejte plný přístup k deníku na 1 rok

Všechny ceny jsou ČISTÉ ceny.
DPH bude přidáno později v pokladně.
Výpočet daně bude dokončen při pokladně.

Získejte časově omezený nebo plný přístup k článkům na ReadCube.

Všechny ceny jsou ČISTÉ ceny.


nejjednodušší je použít position: absolute na oba prvky. Můžete absolutně umístit relativně ke stránce, nebo můžete absolutně umístit relativně vůči kontejneru div nastavením kontejneru div do polohy: relativní

Použijte mřížku CSS a nastavte všechny položky mřížky tak, aby byly ve stejné buňce.

Přidání vrstvené třídy k prvku způsobí, že všechny jeho podřízené vrstvy budou navrstveny na sebe.

pokud vrstvy nemají stejnou velikost, můžete nastavit vlastnosti justify-items a align-items a nastavit horizontální a vertikální zarovnání.

K překrytí prvků můžete použít relativní umístění. Prostor, který by normálně zabírali, však bude i nadále vyhrazen pro prvek:

Ve výše uvedeném příkladu bude mezi dvěma prvky 'VÝCHOZÍ POZICE' umístěn blok prázdného místa. To je způsobeno tím, že prvek „RELATIVE POSITIONED“ má stále vyhrazený prostor.

Pokud používáte absolutní umístění, vaše prvky nebudou mít vyhrazené žádné místo, takže se váš prvek bude skutečně překrývat, aniž by došlo k porušení dokumentu:

Nakonec můžete pomocí z-indexu určit, které prvky jsou nad ostatními:


Problémy s kvalitou obrazu a vzhledem

Proč se intenzita ve světlých oblastech jeví jako nerovnoměrná?

(Od: Bob Myers ([email protected]).)

Pro jakýkoli CRT displej je extrémně obtížné udržet perfektní jas a rovnoměrnost barev v celém obrazu. Jen geometrie věci - vzdálenost změny od zbraně k obrazovce při skenování paprsku, měnící se velikost a tvar bodu atd. - to činí téměř nemožným a mohou se také lišit fosforová obrazovka, tloušťka čelní desky atd. Typické specifikace rovnoměrnosti jasu jsou, že jas neklesne na méně než 70% střední hodnoty (obvykle nejjasnější místo na obrazovce).

U barevných zkumavek nedostatek dokonalé rovnoměrnosti jasu zhoršuje nedostatek dokonalé * rovnoměrnosti * barev a čistoty. To, co se na pevném šedém obrazu jeví jako „tmavé skvrny“, může ve skutečnosti být problémy s nesprávným nastavením paprsku (čistota barev), které lze do určité míry napravit odmagnetováním monitoru.

Opět platí, že * některé * variace jsou normální, pokud si myslíte, že vidíte příliš mnoho, můžete zkusit věc odmastit a zjistit, jestli to pomůže. Pokud tomu tak není, je otázkou, zda produkt splňuje jeho zveřejněné specifikace, a to je věc, kterou budete muset prodiskutovat s výrobcem nebo distributorem.

Komentáře k čistotě barev, nastavení orientace a klenutí

„Problém s mým televizorem je ten, že světlé části obrazu mění barvu. Například bílé oblasti se mohou podle orientace soupravy posunout směrem ke žluté nebo modré.

Jaké jsou možné příčiny vyklenutí? Všiml jsem si, že velikost efektu vyklenutí se mění s orientací televize i poté, co při nové orientaci několikrát odmagnetizoval. Pomůže to identifikovat příčinu vyklenutí v mém případě? “

Problém běžných stínových masek je „vyklenutí“. Díky inherentnímu principu stínových masek jsou v masce rozptýleny 2/3 nebo více veškeré energie paprsku. Tam, kde jsou zobrazeny statické jasné objekty, se zahřeje o několik stovek stupňů. To způsobuje tepelnou roztažnost s místním pokřivením masky. Otvory v masce se přesunou na jiné místo a projekce elektronových paprsků dopadnou na špatné barvy: chyby čistoty. Použití invaru umožňuje asi 3krát větší proud paprsku pro stejné chyby čistoty.

O zbývající rezervu přistání soutěží místní kopule i magnetická pole. Kvůli nesprávnému odmagnetování může být problém vyklenutí viditelnější. A použití trubice určené pro špatnou hemisféru může velmi dobře zvýšit stížnosti na vyklenutí. Je možné záměrně kompenzovat nominální přistání, aby se získala větší rezerva klenby (posun kvůli vyklenutí je vždy na vnější straně trubice). Udělali byste to pomocí spoilerových magnetů umístěných na správných místech.

Trvalé nastavení nižšího kontrastu není skutečný lék, protože zákazníkovi by se tak tmavý obraz nemusel líbit. Lepší obrazová trubice (stínová maska ​​Invar) * je * dobrým lékem (ve většině případů), ale zvyšuje se cena. (Je to dáno především skutečností, že kov Invar je hůře leptatelný.)

Rozdíl v podání barev mezi CRT

  1. Různé fosforové složení. Na začátku všichni hledali luminofory s nejvyšší světelnou účinností. V dnešní době s trendem vyhýbat se těžkým kovům, zejména kadmiu, ve spotřebních výrobcích bylo nutné změnit složení. Tím se barevný bod posune.
  2. Zpětný rozptyl. Ne všechny elektrony, které zasáhnou stínovou masku, jsou absorbovány. Ve skutečnosti je poměrně vysoké procento rozptýleno zpět do prázdného prostoru mezi zbraní a maskou. Pokud se znovu odrazí od vnitřních kovových částí, pak si mohou najít cestu na obrazovku a aktivovat libovolný fosforový prvek. To zvyšuje úroveň černé a snižuje sytost primárních barev. Červená se trochu mění na oranžovou. I u dobrých luminoforů budou barvy velké plochy méně než dokonalé. Projekční televizory Triple-CRT tento problém nemají, fantastická červená!
  3. Barevné filtry. Toshiba vyvinula proces, kdy umísťují jednotlivé barevné filtry mezi sklo a fosfor. Díky tomu je černá mnohem lepší a také se zlepšují barevné body, když jsou potlačeny nežádoucí spektrální čáry.
  4. Mohou také existovat rozdíly v systému NTSC, například špatná matice od YUV do RGB. Definice v japonském systému NTSC se liší od systému USA NTSC a zpracování signálu by s tím mělo počítat.

Obrysové čáry na monitorech s vysokým rozlišením - Moire

Jednou z příčin těchto čar je moaré (interferenční vzory) mezi rastrem a bodovou strukturou CRT. Je ironií, že čím lepší je zaostření na trubici, tím horší to bude pravděpodobně. Trinitrony, které nemají vertikální bodovou strukturu, by měly být imunní vůči interferenci tohoto druhu z rastrových čar (ale ne z horizontální pixelové struktury).

Moire můžete vyzkoušet pomalým nastavením svislé velikosti. Pokud je to moaré, měli byste vidět změnu vzoru v umístění a prostorové frekvenci, protože se provedou mírné změny velikosti. Změny ve svislé poloze přesunou vzory, aniž by se změnila jejich struktura - ale nezůstanou uzamčeny k pohyblivému obrazu.

Pokud jsou způsobeny strukturou rastrové čáry - vaše zaostření je příliš dobré - vzory zůstanou v podstatě fixovány v poloze na přední straně CRT pro úpravu horizontální velikosti a polohy - vzory zůstanou pod měnícím se obrázkem fixovány.

Jak to odstranit? Pokud je váš problém moaré, pak nemusí být jednoduchá odpověď. Pro dané rozlišení a velikost to buď bude problém, nebo ne. Můžete zkusit změnit velikost a rozlišení - moaré je funkcí geometrie. Ironií je, že mám monitor, který je v tomto ohledu hezčí při prokládání 1024x768 než při prokládání 800x600.

Některé monitory mají přepínač, ovládání nebo režim „Moire Reduction Mode“. To může, ale nemusí být nápomocné. Jedním ze způsobů, jak toho dosáhnout, je - uhodli jste - snížit ostrost paprskového bodu a udělat obrázek rozmazanější! Lék se vám může zdát horší než nemoc.

Další příčinou podobných problémů je špatné ukončení video kabelu vytvářející odrazy a ghosting, které za určitých podmínek mohou být tak závažné, že napodobují efekty Moire. Je nepravděpodobné, že by se to stalo ve všech barvách s VGA displejem, protože zakončení je interní u monitoru a pro každou barvu (RGB) jsou použity jednotlivé odpory.

Myslím, že je ironie, že někteří lidé nakonec vrátí jinak skvělé monitory kvůli moire - i když v mnoha případech je to známka nejlepšího zaměření - něco, o co mnoho lidí usiluje! Vždy se toho můžete zbavit - opak není nutně pravda!

Bodová rozteč Moire and Shadow Mask

Hustota děr ve stínící masce stanovila horní hranici rozlišení podporovaného tímto monitorem. Nižší rozlišení fungují dobře, není třeba mít logické pixely v obraze v souladu s fyzickými otvory v masce (ani neexistuje žádný mechanismus, jak toho dosáhnout), a proto to můžete považovat za „větší pixely“ “obrazu s nižším rozlišením jednoduše pokrývající více než jeden otvor nebo štěrbinu v masce.

Jak se efektivní velikost pixelů v obrazu blíží rozestupu otvorů masky, jednotlivé pixely již nezaručují pokrytí dostatečného počtu fosforových bodů na obrazovce, aby bylo zajištěno, že budou mít konstantní barvu nebo konstantní jas, ale obraz bude stále zobrazen což V PRŮMĚRU (na přiměřeně velké ploše) vypadá OK. Ve skutečnosti je specifikovaný formát „top end“ („rozlišení“) pro většinu monitorů obvykle v tomto bodě nebo mírně za ním - efektivní velikost pixelu je poněkud POD bodovou roztečí.

Izolované skvrny na displeji

Můžete snadno rozlišit mezi problémy s videem a problémy s CRT - chybějící pixely kvůli zdroji videa se budou při změně polohy rastru pohybovat na obrazovce. Defekty CRT zůstanou vzhledem k obrazovce nehybné a obecně budou také mnohem ostřeji vymezeny.

Existuje specifikace pro počet a velikost přijatelných vad CRT, takže možná budete muset trochu zakňučet, abyste dodavatele přesvědčili, aby poskytl náhradní monitor v záruce.

Purple Blob - nebo ještě hůř

Existuje nějaká šance, že někdo mávnutím magnetu uslyší trubici? Odeberte jej a/nebo přesuňte všechny položky, jako jsou monster reproduktory, ze sady.

Experimentovalo vaše dítě s jadernými výbušninami - EMP by magnetizovalo CRT. Podobný účinek může mít i blízký úder blesku.

Pokud demagnetizace nepomůže, je možné, že se na CRT něco posunulo - existuje celá řada malých magnetů, které jsou v době výroby přilepeny k úpravě čistoty. Existují také úpravy služeb, ale je nepravděpodobné (i když ne nemožné), že by se tyto najednou změnily. Může to být úkol pro servisní obchod, ale můžete si to vyzkoušet, pokud získáte Samsův fotofakt nebo servisní příručku - nezkoušejte úpravy čistoty bez něj.

Pokud došlo k upuštění monitoru nebo televize, vnitřní maska ​​stínu CRT se mohla zdeformovat nebo se uvolnila a nyní máte sto liber papíru. Pokud je změna barvy mírná, mohou pomoci některé pečlivě umístěné „magnety na lednici“ po obvodu tuby. Viz část: Magnet Fix for Purity Problems - If Duct Tape Works, Use It !.

Je dokonce možné, že se jedná o „funkci“ doplňující výrobce. Pokud jsou určité součásti, jako jsou transformátory a reproduktory, podřadného designu a/nebo jsou umístěny příliš blízko CRT, mohly by mít vliv na čistotu. I když jste si problému nevšimli, když byla sada nová, vždy to mohlo být okrajové a nyní je viditelné zabarvení v důsledku mírných změn nebo pohybu součástí v průběhu času.

Magnetická oprava problémů s čistotou - pokud lepicí páska funguje, použijte ji!

V každém případě nejprve přemístěte ty megablastové reproduktory a skener MRI se supravodivými magnety.

Přidání některých magnetů střední síly pečlivě umístěných ke snížení nebo odstranění problémů s čistotou v důsledku zkreslené nebo vykloubené stínové masky může stačit k tomu, aby byla televize použitelná - ne -li dokonalá. Požadované typy magnetů se prodávají jako „magnety na lednici“ a podobné nástroje pro lepení poznámek na ocelové povrchy. Budou vyrobeny z feritového materiálu (bez oceli) a budou to disky nebo obdélníky. Experimentujte s umístěním pomocí krycí pásky, abyste je dočasně drželi na místě. Degauss pravidelně vyhodnoťte stav svého úsilí. Poté proveďte „opravu“ trvalou lepicí páskou nebo silikonovým tmelem nebo jiným lepidlem pro domácnost.

V závislosti na závažnosti problému s čistotou budete možná potřebovat několik magnetů! Nenechte se však unést a používejte VELKÝ reproduktor nebo magnetronové magnety - problémy ještě zhoršíte.

Všimněte si také, že pokud nejsou magnety umístěny v blízkosti přední části CRT, dojde k velmi významnému geometrickému zkreslení obrazu - což může být léčba horší než nemoc.

UPOZORNĚNÍ: Nenechte se unést při umísťování magnetů - budete poblíž nějakého docela ošklivého napětí!

(Od: pan Caldwell ([email protected]).)

Skončil jsem se starým „trikem na pouštním ostrově“:

Kachnu jsem nalepil 2 magnety Radio Shack na pouzdro takovým způsobem, aby se paprsek stáhl zpět.

Řešení 2 $ na problém 200 $. Můj přítel je sakra šťastný.

RCA prodává magnety k opravě konvergence rohů, mají tvar krokví a nalepíte je na 'správné' místo na zadní straně CRT.

Kolik náklonu je přijatelné?

(Od: David Kuhajda ([email protected]).)

Naklonění o 1 stupeň vzhledem k účinku zemského magnetického pole je v toleranci 27palcového televizoru. Čím větší je obrazová trubice, tím více je patrný účinek náklonu magnetického pole Země. I stíněný reproduktor může mít dostatek magnetické pole způsobí mírné naklonění. 1 stupeň je však všechno, jen ne vážný problém. Pravděpodobně byste si všimli, že jste televizor otočili o 180 stupňů kolem své osy, že náklon by pak šel na druhou stranu. Tovární standard je mít obraz je rovný, když je zadní část televizoru otočena k magnetickému severu. Skutečný naměřený náklon, který jsme viděli, je na 36palcovém televizoru až 3 stupně. To je důvod, proč vyšší TV větší televizory mají úpravu náklonu obrazu.

Co je Doming?

  1. Vyklenutí je deformace stínové masky nebo její podpůrné struktury způsobená zahříváním a následnou expanzí v jasných oblastech (proud paprsků) obrazu. To způsobí posun polohy jemně rozmístěných otvorů nebo štěrbin v masce. Výsledkem budou problémy s čistotou barev - změny barvy a jasu. U CRT rozteče bodů 0,28 mm může změna polohy otvoru nebo slotu pouze 0,14 mm zcela přesunout displej z jedné z primárních barev do druhé.
  2. Stínové masky InVar dokážou bez znatelných problémů udržet výrazně vyšší proudovou hustotu než ocelové stínové masky (až o 3: 1).

  • Vlivy okolních magnetických polí (například zemského magnetického pole).
  • Kopule stínové masky.
  • Tolerance vyskytující se při výrobě CRT.
  • Méně než optimální nastavení úprav čistoty (poloha třmenu, kroužky na krku CRT atd.

Pokud dojde ke stížnostem na změnu barvy, obvykle to nebude způsobeno změnami v chování kopule, ale změnami ve stínění proti magnetickým polím.

    Televizory a monitory, které jsou dlouhodobě udržovány v „pohotovostním“ režimu, nelze nikdy dostatečně odmastit, protože odmašťovací obvod může fungovat pouze krátkou dobu poté, co je jednotka zapnuta ze studeného stavu - ať už je tomu tak u vaší jednotky záleží na designu). V tomto případě mohou zachytit magnetická pole z magnetů přesunutých poblíž nebo z jiného zařízení.


3 odpovědi 3

Zkontrolujte, zda vaše styly neobsahují něco takového:

Pokud to zjistíte, zkuste odebrat nebo změnit typ zobrazení.

1) Zkontrolujte svůj CSS. Někde uvnitř:

Zkontrolujte všechny styly zahrnuté na této stránce. Další šablona stylů může přepsat tu, kterou jste zadali.

2) Zkuste provést nějaké „ladění“. Například použijte doplněk Firebug pro Firefox, přejděte na kartu HTML a přesuňte myš nad tuto značku (v části kódu). Bude zvýrazněn (na stránce) různými barvami v závislosti na tom, jestli to byl okraj, odsazení atd. Pohybuji myší nad kódem a zvýrazní značku s mezerami kolem ní různými barvami. To může pomoci získat představu o tom, jaké klíčové slovo v šabloně stylů najít.

3) Zkuste pro značku „a“ deaktivovat všechny zděděné šablony stylů CSS. Umístěte například tento kus kódu na svou html stránku:

4) Pokud používáte událost DHTML, JavaScript, jQuery onload - dočasně ji deaktivujte. Pokud se mezery vrátí do normálu, pak přesně víme, že problém je v rozsahu JavaScriptu. Laděním JavaScriptu krok za krokem najděte přesné místo, kde je polstrování (nebo jiná vlastnost) nastaveno na značku „a“.


Vezměte prosím na vědomí, že v literatuře jsou termíny oblast a zóna často zaměnitelné, přičemž termín zóna je upřednostňován, když je oblast obdélníková. Pro zjednodušení však v tomto dokumentu použijeme termín oblast buď jako zónu nebo polygonální oblast.

Lucas, S.M., et al .: Robustní čtenářské soutěže ICDAR 2003: příspěvky, výsledky a budoucí směry. Int. J. Doc. Anální. Rozpoznat. 7(2–3), 105–122 (2005)

Shahab, A., Shafait, F., Dengel, A .: ICDAR 2011 robustní čtenářská soutěž, výzva 2: čtení textu v obrazech scén. In: 2011 Mezinárodní konference o analýze a rozpoznávání dokumentů (ICDAR), s. 1491–1496 (2011)

Yin, X.C., Zuo, Z.Y., Tian, ​​S., Liu, C.L .: Detekce textu, sledování a rozpoznávání ve videu: komplexní průzkum. IEEE Trans. Obrazový proces. 25(6), 2752–2773 (2016)

Tran, T.-A., Na, I.-S., Kim, S.-H .: Oddělení textu a netextu v analýze rozložení dokumentu pomocí rekurzivního filtru. KSII Trans. Internet Inf. Syst. 9(10), 4072–4091 (2015)

Yu, C., Song, Y., Zhang, Y .: Lokalizace textu scény pomocí analýzy okrajů a fondu funkcí. Neurocomputing 175, 652–661 (2016)

Asif, M.D.A., Tariq, U.U., Baig, M.N., Ahmad, W .: Nová hybridní metoda pro detekci textu a extrakci ze zpravodajských videí. Střední východ J. Sci. Res. 19(5), 716–722 (2014)

Sarkar, R., Moulik, S., Das, N., Basu, S., Nasipuri, M., Kundu, M .: Suppression of non-text components in handwritten document images. In: 2011 International Conference on Image Information Processing (ICIIP)

Wahl, F.M., Wong, K.Y., Casey, R.G .: Bloková segmentace a extrakce textu v dokumentech se smíšeným textem/obrázkem. Výpočet. Graf. Obrazový proces. 20(4), 375–390 (1982)

Bunke, H .: Automatická interpretace čar a textu ve schématech zapojení. In: Kittler, J., Fu, K.S., Pau, L.F. (eds.) Theory Recognition Theory and Applications, s. 297–310. Springer, Berlín (1982)

Fletcher, L.A., Kasturi, R .: Robustní algoritmus pro oddělení textových řetězců od smíšených textových/grafických obrázků. IEEE Trans. Vzor anální. Mach. Intell. 10(6), 910–918 (1988)

Kamel, M., Zhao, A .: Extrakce binárních znakových/grafických obrázků z obrázků ve stupních šedi. Graf CVGIP. Modely Image Process. 55(3), 203–217 (1993)

Wendling, L., Tabbone, S .: Nový způsob detekce šipek v perokresbách. IEEE Trans. Vzor anální. Mach. Intell. 26, 935–941 (2004)

Bukhari, S.S., Azawi, A., Ali, M.I., Shafait, F., Breuel, T.M .: Segmentace obrazu dokumentu pomocí diskriminačního učení přes připojené komponenty. In: Proceedings of the 9th IAPR International Workshop on Document Analysis Systems, pp. 183–190 (2010)

Okun, O., Drmann, D., Pietikainen, M .: Segmentace stránky a klasifikace zón: stav techniky, dokument DTIC (1999)

Chiang, Y.-Y., Leyk, S., Knoblock, C.A .: Průzkum technik zpracování digitální mapy. Výpočet ACM. Surv. 47(1), 1 (2014)

Dori, D., Wenyin, L .: Automatizovaná konverze CAD pomocí systému porozumění strojovému kreslení: koncepty, algoritmy a výkon. IEEE Trans. Syst. Muž Cybern. Část A 29(4), 411–416 (1999)

Ye, Q., Doermann, D .: Detekce a rozpoznávání textu v obrazech: průzkum. IEEE Trans. Vzor anální. Mach. Intell. 37(7), 1480–1500 (2015)

Van Phan, T., Nakagawa, M .: Klasifikace textu/netextu v online ručně psaných dokumentech s rekurentními neuronovými sítěmi. In: 2014 14. mezinárodní konference o hranicích v rozpoznávání rukopisu (ICFHR), s. 23–28 (2014)

Karatzas, D., Antonacopoulos, A .: Segmentace barevného textu ve webových obrázcích na základě lidského vnímání. Obrázek Vis. Výpočet. 25, 564–577 (2007)

Van Phan, T., Nakagawa, M .: Kombinace globálních a lokálních kontextů pro klasifikaci textu/netextu v heterogenních online ručně psaných dokumentech. Rozpoznávání vzorů. 51, 112–124 (2016)

Delaye, A., Liu, C.-L .: Kontextová klasifikace textu/netextového tahu v online ručně psaných poznámkách s podmíněnými náhodnými poli. Rozpoznávání vzorů. 47(3), 959–968 (2014)

Delaye, A., Liu, C.-L .: Multi-class segmentation of free-form online documents with tree conditional random fields. Int. J. Doc. Anální. Rozpoznat. 17(4), 313–329 (2014)

Degtyarenko, I., Radyvonenko, O., Bokhan, K., Khomenko, V .: Klasifikátor textu/tvaru pro mobilní aplikace se zadáváním rukopisu. Int. J. Doc. Anální. Rozpoznat. 19(4), 369–379 (2016)

Bresler, M., Pråša, D., Hlaváč, V .: Online rozpoznávání načrtnutých diagramů spojených šipkami. Int. J. Doc. Anální. Rozpoznat. 19(3), 253–267 (2016)

Lucas, S.M .: ICDAR 2005 text lokalizující výsledky soutěže. In: Eighth International Conference on Document Analysis and Recognition, 2005. Proceedings, pp. 80–84 (2005)

Yao a kol., C .: Porozumění textu náhodných scén: Nedávné pokroky v soutěži ICDAR 2015 Robustní čtenářská soutěž 4. arXiv Prepr. arXiv1511.09207 (2015)

Zhong, Y., Zhang, H., Jain, A.K .: Automatická lokalizace titulků v komprimovaném videu. IEEE Trans. Vzor anální. Mach. Intell. 22(4), 385–392 (2000)

Ye, Q., Huang, Q., Gao, W., Zhao, D .: Rychlá a robustní detekce textu v obrázcích a video rámečcích. Obrázek Vis. Výpočet. 23(6), 565–576 (2005)

Haritaoglu, I .: Extrakce a překlad textu scény pro ruční zařízení. In: Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, CVPR 2001, roč. 2, s. II-408 (2001)

Chen, X., Yang, J., Zhang, J., Waibel, A .: Automatická detekce a rozpoznávání znaků z přírodních scén. IEEE Trans. Obrazový proces. 13(1), 87–99 (2004)

Sermanet, P., Chintala, S., LeCun, Y .: Konvoluční neurální sítě aplikované na klasifikaci číslic čísel domů. In: 2012 21. mezinárodní konference o rozpoznávání vzorů (ICPR), s. 3288–3291 (2012)

He, Z., Liu, J., Ma, H., Li, P .: Nová metoda automatické extrakce identifikačních kódů kontejnerů. IEEE Trans. Intell. Transp. Syst. 6(1), 72–78 (2005)

Lienhart, R., Wernicke, A .: Lokalizace a segmentace textu v obrázcích a videích. IEEE Trans. Obvody Syst. Video Technol. 12(4), 256–268 (2002)

Lu, S., Chen, T., Tian, ​​S., Lim, J.-H., Tan, C.-L .: Extrakce textu scény na základě okrajů a podpory vektorové regrese. Int. J. Doc. Anální. Rozpoznat. 18(2), 125–135 (2015)

Weinman, J.J., Learned-Miller, E., Hanson, A.R .: Rozpoznávání textu scény pomocí podobnosti a lexikonu s řídkým šířením víry. IEEE Trans. Vzor anální. Mach. Intell. 31(10), 1733–1746 (2009)

Clark, P., Mirmehdi, M .: Rozpoznávání textu v reálných scénách. Int. J. Doc. Anální. Rozpoznat. 4(4), 243–257 (2002)

Perantonis, S.J., Gatos, B., Maragos, V., Karkaletsis, V., Petasis, G .: Identifikace textové oblasti na webových obrázcích. In: Vouros, G.A., Panayiotopoulos, T. (eds.) Methods and Applications of Artificial Intelligence, s. 82–92. Springer, Berlín (2004)

Lopresti, D., Zhou, J .: Vyhledávání a rozpoznávání textu na WWW obrázcích. Inf. Retr. Boston 2(2–3), 177–206 (2000)

Brown, M. K., Glinski, S. C., Schmult, B. C.: Analýza webových stránek pro procházení hlasem. In: Proceedings of the 1st International Workshop on Web Document Analysis (WDA’2001), pp. 59–61 (2001)

Penn, G., Hu, J., Luo, H., McDonald, R .: Flexibilní analýza webových dokumentů pro doručování do zařízení s úzkou šířkou pásma. In: Analýza a rozpoznávání dokumentů (ICDAR), s. 1074 (2001)

Antonacopoulos, A., Hu, J .: Analýza webových dokumentů: výzvy a příležitosti, sv. 55. World Scientific, Singapur (2003)

Lu, Z .: Detekce textových oblastí z výkresů digitálního inženýrství. IEEE Trans. Vzor anální. Mach. Intell. 20, 431–439 (1998)

Haralick, R.M., Queeney, D .: Porozumění technickým výkresům. Výpočet. Graf. Obrazový proces. 20(3), 244–258 (1982)

Le, V.P., Nayef, N., Visani, M., Ogier, J.-M., De Tran, C .: Segmentace textu a netextu na základě funkcí spojených komponent. In: 13. mezinárodní konference o analýze a rozpoznávání dokumentů (ICDAR), s. 1096–1100 (2015)

Jayadevan, R., Kolhe, S.R., Patil, P.M., Pal, U .: Automatické zpracování ručně psaných obrázků bankovních šeků: průzkum. Int. J. Doc. Anální. Rozpoznat. 15(4), 267–296 (2012)

Hönes, F., Lichter, J .: Extrakce rozložení dokumentů smíšeného režimu. Mach. Vis. Appl. 7(4), 237–246 (1994)

Ručně psané dokumenty. https://goo.gl/images/WyKY7e. Přístup: 08 září 2017

Chen, Y.-L., Hong, Z.-W., Chuang, C.-H .: Systém založený na znalostech pro extrahování textových řádků ze smíšených a překrývajících se textových/grafických obrázků dokumentu. Expert Syst. Appl. 39(1), 494–507 (2012)

Zagoris, K., Chatzichristofis, S.A., Papamarkos, N .: Lokalizace textu pomocí analýzy standardní odchylky prvků struktury a podpůrných vektorových strojů. EURASIP J. Adv. Signální proces. 2011(1), 1–12 (2011)

Emmanouilidis, C., Batsalas, C., Papamarkos, N .: Vývoj a hodnocení technik lokalizace textu na základě strukturálních vlastností textur a neurálních klasifikátorů. In: 10. mezinárodní konference o analýze a rozpoznávání dokumentů, ICDAR’09, s. 1270–1274 (2009)

Vu, H.N., Tran, T.A., Na, I.S., Kim, S.H.: Automatic extraction of text regions from document images by multilevel thresholding and k-means clustering. In: 2015 IEEE/ACIS 14th International Conference on Computer and Information Science (ICIS), pp. 329–334 (2015)

Sobottka, K., Kronenberg, H., Perroud, T., Bunke, H.: Text extraction from colored book and journal covers. Int. J. Doc. Anální. Recognit. 2(4), 163–176 (2000)

Roy, P.P., Llados, J., Pal, U.: Text/graphics separation in color maps. In: Proceedings—International Conference on Computing: Theory and Applications, ICCTA 2007 (2007)

Chiang, Y.-Y., Knoblock, C.A.: Recognizing text in raster maps. Geoinformatica 19(1), 1–27 (2015)

Oyedotun, O.K., Khashman, A.: Document segmentation using textural features summarization and feedforward neural network. Appl. Intell. 45, 1–15 (2016)

Vil’kin, A.M., Safonov, I.V., Egorova, M.A.: Algorithm for segmentation of documents based on texture features. Pattern Recognit. Image Anal. 23(1), 153–159 (2013)

Lin, M.W., Tapamo, J.-R., Ndovie, B.: A texture-based method for document segmentation and classification. S. Afr. Výpočet. J. 36(1), 49–56 (2006)

Shih, F.Y., Chen, S.S.: Adaptive document block segmentation and classification. IEEE Trans. Syst. Man Cybern. Part B 26(5), 797–802 (1996)

Park, H.C., Ok, S.Y., Cho, H.: Word extraction in text/graphic mixed image using 3-dimensional graph model. ICCPOL 99, 171–176 (1999)

Antonacopoulos, A., Ritchings, R.T.: Representation and classification of complex-shaped printed regions using white tiles. In: Proceedings of the 3rd International Conference on Document Analysis and Recognition, August 14–16, pp. 1132–1135 (1995)

Bhowmik, S., Sarkar, R., Nasipuri, M.: Text and non-text separation in handwritten document images using local binary pattern operator. In: Proceedings of the First International Conference on Intelligent Computing and Communication, pp. 507–515 (2017)

Chen, Y.L., Wu, B.F.: A multi-plane approach for text segmentation of complex document images. Pattern Recognit. 42, 1419–1444 (2009)

Strouthopoulos, C., Papamarkos, N., Atsalakis, A.E.: Text extraction in complex color documents. Pattern Recognit. 35(8), 1743–1758 (2002)

Cao, R., Tan, C.L.: Text/graphics separation in maps. In: Blostein, D., Kwon, Y.B. (eds.) Graphics Recognition Algorithms and Applications, pp. 167–177. Springer, Berlin (2001)

Chiang, Y.Y., Knoblock, C.A.: An approach for recognizing text labels in raster maps. In: Proceedings—International Conference on Pattern Recognition (2010)

Velázquez, A., Levachkine, S.: Text/graphics separation and recognition in raster-scanned color cartographic maps. In: Lladós, J., Kwon, Y.-B. (eds.) Graphics Recognition. Recent Advances and Perspectives, pp. 63–74. Springer, Berlin (2003)

Baird, H.S., Jones, S.E., Fortune, S.J.: Image segmentation by shape-directed covers. In: Pattern Recognition, 1990. 10th International Conference on Proceedings, vol. 1, pp. 820–825 (1990)

Ha, J., Haralick, R.M., Phillips, I.T.: Recursive XY cut using bounding boxes of connected components. Proceedings of the Third International Conference on Document Analysis and Recognition 2, 952–955 (1995)

Sun, H.-M.: Page segmentation for Manhattan and Non-Manhattan layout documents via selective CRLA. In: Eighth International Conference on Document Analysis and Recognition (ICDAR’05), pp. 116–120 (2005)

Agrawal, M., Doermann, D.: Voronoi++: a dynamic page segmentation approach based on voronoi and docstrum features. In: 2009 10th International Conference on Document Analysis and Recognition, pp. 1011–1015 (2009)

Ferilli, S., Basile, T., Esposito, F.: A histogram-based technique for automatic threshold assessment in a run length smoothing-based algorithm. In: Proceedings of the 9th IAPR International Workshop on Document Analysis Systems, pp. 349–356 (2010)

Pan, Y., Zhao, Q., Kamata, S.: Document layout analysis and reading order determination for a reading robot. In: TENCON 2010–2010 IEEE Region 10 Conference, pp. 1607–1612 (2010)

Jain, A.K., Yu, B.: Document representation and its application to page decomposition. IEEE Trans. Vzor anální. Mach. Intell. 20(3), 294–308 (1998)

Smith, R.W.: Hybrid page layout analysis via tab-stop detection. In: 2009 10th International Conference on Document Analysis and Recognition, pp. 241–245 (2009)

Chen, K., Yin, F., Liu, C.L.: Hybrid page segmentation with efficient whitespace rectangles extraction and grouping. In: 2013 12th International Conference on Document Analysis and Recognition, pp. 958–962 (2013)

Fan, K.-C., Wang, L.-S.: Classification of document blocks using density feature and connectivity histogram. Pattern Recognit. Lett. 16(9), 955–962 (1995)

Antonacopoulos, A., Ritchings, R.T.: Representation and classification of complex-shaped printed regions using white tiles. Proceedings of the Third International Conference on Document Analysis and Recognition 2, 1132–1135 (1995)

Pavlidis, T., Zhou, J.: Page segmentation and classification. CVGIP Graph. Models Image Process. 54(6), 484–496 (1992)

Drivas, D., Amin, A.: Page segmentation and classification utilising a bottom-up approach. Proceedings of the Third International Conference on Document Analysis and Recognition 2, 610–614 (1995)

Chowdhury, S.P., Mandal, S., Das, A.K., Chanda, B.: Segmentation of text and graphics from document images. In: Ninth International Conference on Document Analysis and Recognition, ICDAR 2007, vol. 2, pp. 619–623 (2007)

Bloomberg, D.S.: Multiresolution morphological approach to document image analysis. In: Proceedings of the International Conference on Document Analysis and Recognition, Saint-Malo, France (1991)

Bukhari, S.S., Shafait, F., Breuel, T.M.: Improved document image segmentation algorithm using multiresolution morphology. In: IS&T/SPIE Electronic Imaging, pp. 78740D–78740D (2011)

Ablameyko, S.V., Uchida, S.: Recognition of engineering drawing entities: review of approaches. Int. J. Image Graph. 7(4), 709–733 (2007)

Tombre, K., Tabbone, S., Pélissier, L., Lamiroy, B., Dosch, P.: Text/graphics separation revisited. In: Lopresti, D., Hu, J., Kashi, R. (eds.) Document Analysis Systems V, pp. 200–211. Springer, Berlin (2002)

Lin, S.-C., Ting, C.-K.: A new approach for detection of dimensions set in mechanical drawings. Pattern Recognit. Lett. 18(4), 367–373 (1997)

Ah-Soon, C., Tombre, K.: Variations on the analysis of architectural drawings. Proceedings of the Fourth International Conference on Document Analysis and Recognition 1, 347–351 (1997)

Lai, C.P., Kasturi, R.: Detection of dimension sets in engineering drawings. IEEE Trans. Vzor anální. Mach. Intell. 16(8), 848–855 (1994)

Do, T.-H., Tabbone, S., Ramos-Terrades, O.: Text/graphic separation using a sparse representation with multi-learned dictionaries. In: 2012 21st International Conference on Pattern Recognition (ICPR), pp. 689–692 (2012)

De, P., Mandal, S., Bhowmick, P., Das, A.: ASKME: adaptive sampling with knowledge-driven vectorization of mechanical engineering drawings. Int. J. Doc. Anální. Recognit. 19(1), 11–29 (2016)

Favreau, J.-D., Lafarge, F., Bousseau, A.: Fidelity vs. simplicity: a global approach to line drawing vectorization. ACM Trans. Graph. 35, 120 (2016)

Dori, D., Velkovitch, Y.: Segmentation and recognition of dimensioning text from engineering drawings. Výpočet. Vis. Image Underst. 69(2), 196–201 (1998)

Casey, R., Ferguson, D., Mohiuddin, K., Walach, E.: Intelligent forms processing system. Mach. Vis. Appl. 5(3), 143–155 (1992)

Yu, B., Jain, A.K.: A generic system for form dropout. IEEE Trans. Vzor anální. Mach. Intell. 18(11), 1127–1134 (1996)

Wang, D., Srihari, S.N.: Analysis of form images. Int. J. Pattern Recognit. Artif. Intell. 8(5), 1031–1052 (1994)

Hori, O., Doermann, D.S.: Robust table-form structure analysis based on box-driven reasoning. Proceedings of the Third International Conference on Document Analysis and Recognition 1, 218–221 (1995)

Dzuba, G., Filatov, A., Gershuny, D., Kil, I., Nikitin, V.: Check amount recognition based on the cross validation of courtesy and legal amount fields. Int. J. Pattern Recognit. Artif. Intell. 11(4), 639–655 (1997)

Heutte, L., et al.: Multi-bank check recognition system: consideration on the numeral amount recognition module. Int. J. Pattern Recognit. Artif. Intell. 11(4), 595–618 (1997)

Knerr, S., Anisimov, V., Baret, O., Gorski, N., Price, D., Simon, J.-C.: The A2iA intercheque system: courtesy amount and legal amount recognition for French checks. Int. J. Pattern Recognit. Artif. Intell. 11(4), 505–548 (1997)

Govindaraju, V., Srihari, S.N.: Separating handwritten text from interfering strokes. In: From Pixels to Features. III Front. Handwritten Recognition, pp. 17–28 (1992)

Dimauro, G., Impedovo, S., Pirlo, G., Salzo, A.: Removing underlines from handwritten text: an experimental investigation. In: Impedovo, S., Downton, A.C. (eds.) Progress in Handwriting Recognition, pp. 497–501. World Scientific (1997)

Akiyama, T., Hagita, N.: Automated entry system for printed documents. Pattern Recognit. 23(11), 1141–1154 (1990)

Liu, K., Suen, C.Y., Cheriet, M., Said, J.N., Nadal, C., Tang, Y.Y.: Automatic extraction of baselines and data from check images. Int. J. Pattern Recognit. Artif. Intell. 11(4), 675–697 (1997)

Hase, H., Shinokawa, T., Yoneda, M., Suen, C.Y.: Character string extraction from color documents. Pattern Recognit. 34(7), 1349–1365 (2001)

Clavelli, A., Karatzas, D.: Text segmentation in colour posters from the Spanish civil war era. In: 10th International Conference on Document Analysis and Recognition, ICDAR’09, pp. 181–185 (2009)

Li, L., Nagy, G., Samal, A., Seth, S., Xu, Y.: Integrated text and line-art extraction from a topographic map. Int. J. Doc. Anální. Recognit. 2, 177–185 (2000)

Dhar, D.B., Chanda, B.: Extraction and recognition of geographical features from paper maps. Int. J. Doc. Anální. Recognit. 8(4), 232–245 (2006)

Cordeiro, A., Pina, P.: Colour map object separation. In: Proceedings of the ISPRS Mid-Term Symposium 2006, Remote Sensing: From Pixels to Processes, pp. 243–247 (2006)

San, L.M., Yatim, S.M., Sheriff, N.A.M., Isrozaidi, N.: Extracting contour lines from scanned topographic maps. In: International Conference on Computer Graphics, Imaging and Visualization, CGIV 2004. Proceedings, pp. 187–192 (2004)

Chen, Y., Wang, R., Qian, J.: Extracting contour lines from common-conditioned topographic maps. IEEE Trans. Geosci. Remote Sens. 44(4), 1048–1057 (2006)

Leyk, S.: Segmentation of colour layers in historical maps based on hierarchical colour sampling. In: International Workshop on Graphics Recognition, pp. 231–241 (2009)

Kasturi, R., Bow, S.T., El-Masri, W., Shah, J., Gattiker, J.R., Mokate, U.B.: A system for interpretation of line drawings. IEEE Trans. Vzor anální. Mach. Intell. 12(10), 978–992 (1990)

Raveaux, R., Eugen, B., Locteau, H., Adam, S., Héroux, P., Trupin, E.: A graph classification approach using a multi-objective genetic algorithm application to symbol recognition. In: International Workshop on Graph-Based Representations in Pattern Recognition, pp. 361–370 (2007)

Raveaux, R., Burie, J.-C., Ogier, J.-M.: Object extraction from colour cadastral maps. In: The Eighth IAPR International Workshop on Document Analysis Systems, DAS’08, pp. 506–514 (2008)

Pezeshk, A., Tutwiler, R.L.: Automatic feature extraction and text recognition from scanned topographic maps. IEEE Trans. Geosci. Remote Sens. 49, 5047–5063 (2011)

Chiang, Y.-Y., Knoblock, C.A.: Recognition of multi-oriented, multi-sized, and curved text. In: International Conference on Document Analysis and Recognition, pp. 1399–1403 (2011)

Chiang, Y.-Y., Knoblock, C.A.: A general approach for extracting road vector data from raster maps. Int. J. Doc. Anální. Recognit. 16(1), 55–81 (2013)

Nazari, N.H., Tan, T., Chiang, Y.-Y.: Integrating text recognition for overlapping text detection in maps. Electron. Zobrazování 2016(17), 1–8 (2016)

Kavitha, A.S., Shivakumara, P., Kumar, G.H., Lu, T.: Text segmentation in degraded historical document images. Egypt. Inform. J. 17, 189–197 (2016)

Shivakumara, P., Sreedhar, R.P., Phan, T.Q., Lu, S., Tan, C.L.: Multioriented video scene text detection through Bayesian classification and boundary growing. IEEE Trans. Circuits Syst. Video Technol. 22(8), 1227–1235 (2012)

Cohen, R., Asi, A., Kedem, K., El-Sana, J., Dinstein, I.: Robust text and drawing segmentation algorithm for historical documents. In: Proceedings of the 2nd International Workshop on Historical Document Imaging and Processing, pp. 110–117 (2013)

Mendelson, E.: ABBYY finereader professional 9.0. PC Mag. (2008)

Breuel, T.M.: The OCRopus open source OCR system. Electron. Zobrazování 2008, 68150F–68150F (2008)

Smith, R.W.: History of the Tesseract OCR engine: what worked and what didn’t. In: IS&T/SPIE Electronic Imaging, p. 865802 (2013)

Lichman, M.: UCI Machine Learning Repository, University of California, School of Information and Computer Science, Irvine, CA, (2013). http://archive.ics.uci.edu/ml. Accessed Oct 2017

Antonacopoulos, A., Bridson, D., Papadopoulos, C., Pletschacher, S.: A realistic dataset for performance evaluation of document layout analysis. In: 10th International Conference on Document Analysis and Recognition, ICDAR’09, pp. 296–300 (2009)

The MediaTeam document database II. http://www.mediateam.oulu.fi/downloads/MTDB/. Accessed Oct 2017

Islamic Heritage Project (IHP) Collection. http://ocp.hul.harvard.edu/ihp/. Accessed Oct 2017

6-Inch Historical Ordnance Survey Maps of the United Kingdom (UK). http://maps.nls.uk/os/6inch-england-and-wales/info2.html. Accessed Oct 2017

Wang, D., Srihari, S.N.: Classification of newspaper image blocks using texture analysis. Výpočet. Vis. Graph. Image Process. 47(3), 327–352 (1989)

Liu, W.Y., Dori, D.: A proposed scheme for performance evaluation of graphics/text separation algorithms. Graph. Recognit. Algorithms Syst. 1389, 359–371 (1998)

Shafait, F.: Camera-Based Document Analysis and Recognition. Springer, Berlin (2007)

Kasar, T., Kumar, J., Ramakrishnan, A.G.: Font and background color independent text binarization. In: Second International Workshop on Camera-based Document Analysis and Recognition, pp. 3–9 (2007)

Drivas, D., Amin, A.: Page Segmentation and Classification Utilising Bottom-Up Approach. In: Proceedings of the 3rd International Conference on Document Analysis and Recognition, Aug 14–16, pp. 0–4 (1995)

Tran, T.A., Oh, K., Na, I.-S., Lee, G.-S., Yang, H.-J., Kim, S.-H.: A robust system for document layout analysis using multilevel homogeneity structure. Expert Syst. Appl. 85, 99–113 (2017)

Tran, T.A., Na, I.S., Kim, S.H.: Page segmentation using minimum homogeneity algorithm and adaptive mathematical morphology. Int. J. Doc. Anální. Recognit. 19(3), 191–209 (2016)

Maderlechner, G.: Symbolic subtraction of fixed formatted graphics and text from filled in forms. In: Proceedings of the IAPR Workshop on Machine Vision and Applications, Tokyo, November 1990, pp. 457–459 (1990)

Doermann, D.S., Rosenfeld, A.: The interpretation and reconstruction of interfering strokes. Přední. Handwrit. Recognit. 3, 41–50 (1993)

Tang, Y.Y., Suen, C.Y., De Yan, C., Cheriet, M.: Financial document processing based on staff line and description language. IEEE Trans. Syst. Man. Cybern. 25(5), 738–754 (1995)

Moghaddam, R.F., Cheriet, M.: A multi-scale framework for adaptive binarization of degraded document images. Pattern Recognit. 43(6), 2186–2198 (2010)

Hedjam, R., Moghaddam, R.F., Cheriet, M.: A spatially adaptive statistical method for the binarization of historical manuscripts and degraded document images. Pattern Recognit. 44(9), 2184–2196 (2011)

Howe, N.R.: Document binarization with automatic parameter tuning. Int. J. Doc. Anální. Recognit. 16(3), 247–258 (2013)

Mitianoudis, N., Papamarkos, N.: Document image binarization using local features and Gaussian mixture modeling. Image Vis. Výpočet. 38, 33–51 (2015)

Mandal, S., Das, S., Agarwal, A., Chanda, B.: Binarization of degraded handwritten documents based on morphological contrast intensification. In: Third International Conference on Image Information Processing (ICIIP), pp. 73–78 (2015)

Adak, C., Maitra, P., Chaudhuri, B.B., Blumenstein, M.: Binarization of old halftone text documents. In: TENCON 2015–2015 IEEE Region 10 Conference, pp. 1–5 (2015)

Das, B., Bhowmik , S., Saha, A., sarkar, R.: An adaptive foreground-background separation method for effective binarization of document images. In: 8th International Conference on Soft Computing and Pattern Recognition (2016)

Kang, L., Doermann, D.: Template based segmentation of touching components in handwritten text lines. In: International Conference on Document Analysis and Recognition (ICDAR), pp. 569–573 (2011)

Liu, C.-L., Sako, H., Fujisawa, H.: Effects of classifier structures and training regimes on integrated segmentation and recognition of handwritten numeral strings. IEEE Trans. Vzor anální. Mach. Intell. 26(11), 1395–1407 (2004)

Wang, Y., Liu, X., Jia, Y.: Statistical modeling and learning for recognition-based handwritten numeral string segmentation. In: 10th International Conference on Document Analysis and Recognition, ICDAR’09, pp. 421–425 (2009)

Papavassiliou, V., Stafylakis, T., Katsouros, V., Carayannis, G.: Handwritten document image segmentation into text lines and words. Pattern Recognit. 43(1), 369–377 (2010)

Wshah, S., Shi, Z., Govindaraju, V.: Segmentation of Arabic handwriting based on both contour and skeleton segmentation. In: 10th International Conference on Document Analysis and Recognition, ICDAR’09, pp. 793–797 (2009)


Podívejte se na video: Velké změny Prahy: Holešovičky, Jižní spojka a Průmyslový polookruh ČZJ