Number of found documents: 1507
Published from to

Inteligentní síťové forenzní metody
Pluskal, Jan; Sheppard, John; Slay, Jill; Ryšavý, Ondřej
2023 - English
Tato disertační práce je souborem vybraných recenzovaných prací autora spojených tématem forenzní analýzy počítačových sítí. Práce byly publikovány v posledním desetiletí v časopisech a konferencích zaměřujících se na oblast informatiky se specializací na digitální forenzní analýzu. Tato práce se nedívá na síťovou forenzní analýzu jako disciplínu monitorování síťové bezpečnosti, ale zajímá se o pomoc při forenzním vyšetřování kriminalisty z policejních složek (LEA). Rozdíl spočívá spíše v zaměření se na získávání důkazů o nezákonných činnostech než na odhalování síťových útoků nebo bezpečnostních incidentů. Práce reviduje metody používané pro zpracování zachyceného síťového provozu při síťovém forenzním vyšetřování. Dále provádí kritickou analýzu síťových forenzních a analytických nástrojů (NFAT), které jsou běžně používané vyšetřovateli bezpečnostních složek (LEA). Analýza spočívá v identifikaci jejich slabin, navrhuje vylepšení a nové přístupy k řešení problémů. Zvláštní pozornost je věnována zpracování neúplné síťové komunikace, ke které běžně dochází při nekvalitním odposlechu poskytovateli internetových služeb (ISP). Řešení spočívá ve vynechání chybějících částí komunikace a inteligentním převinutí analyzátoru aplikačního protokolu, které zanedbá chybějící segmenty s využitím informací získaných z síťové a transportní vrstvy. Vyvinuté metody byly následně použity k obohacení sad funkcí používaných pro identifikaci aplikačních protokolů, které navíc umožňují nejen identifikaci aplikačního protokolu, ale také jemnější identifikaci aplikace. Toto rozšíření může poskytnout užitečné metainformace v případě, že bylo použito šifrování. V následném výzkumu jsou analyzovány výkonnostní charakteristiky zpracování zachycené síťové komunikace pouze jedním strojem. Dále je navržena, implementována a vyhodnocena lineárně škálovatelná architektura pro zajištění distribuovaného zpracování na více výpočetních prvcích. Práce je završena zaměřením se na zpracování virtuálních sítí a tunelované komunikace, kde jako modelový příklad bylo zvoleno použití Generic Stream Encapsulation, který doposud nebyl podporován žádným síťovým forenzním analytickým nástrojem. Prezentovaný výzkum je volně dostupný vyjma článků s omezeným přístupem. Tam, kde to bylo možné, byly metody implementovány do nástroje pro forenzní vyšetřování a analýzu sítě s otevřeným zdrojovým kódem - Netfox Detective. Metody byly ověřeny pomocí přiložených datových sad. Všechny datové sady a výsledky jsou volně dostupné a odkazované z příslušných publikací. This dissertation is a collection of the author's peer-reviewed papers, with a common topic of computer network forensic analysis, published in journals and conferences in computer science, digital forensics. In contrast to understanding network forensics as a discipline of network security monitoring, this work's merit is to aid law enforcement agency (LEA) officers in conducting network forensic investigations. The distinction lies in putting emphasis on extracting evidence from illicit activities rather than detecting network attacks or security incidents. This work revisits methods used for the forensic investigation of captured network traffic by critically analyzing tools commonly used by LEA investigators. The objective is to identify weaknesses, design solutions, and propose new approaches. Particular interest is given to processing incomplete network communication that typically occurs in low-quality interception provided by Internet Service Providers (ISPs). The proposed method involves omitting missing parts and intelligently rewinding the protocol parsers to pass the missing segments using information from transport and internet layers. This process allowed the creation of novel features for the application protocol identification, thus additionally enabling application protocol identification and finer-grained application identification. Subsequent research analyzed the performance characteristics of single-machine captured network communication and designed, implemented, and evaluated a linearly scalable architecture for distributed computation. Lastly, the problem of overlay and tunneled communication was tackled by thoroughly analyzing Generic Stream Encapsulation (GSE). The presented research is publicly available, except for the limitations enforced by the publishing houses. When applicable, methods have been implemented into the open source network forensic investigation and analysis tool, Netfox Detective, and verified using enclosed datasets. All data sets and results are available and referenced in their respective publications. Keywords: network forensic analysis; application protocol identification; captured network traffic processing; síťová forenzní analýza; identifikace aplikačního protoklu; zpracování zachycených dat Available in a digital repository NRGL
Inteligentní síťové forenzní metody

Tato disertační práce je souborem vybraných recenzovaných prací autora spojených tématem forenzní analýzy počítačových sítí. Práce byly publikovány v posledním desetiletí v časopisech a konferencích ...

Pluskal, Jan; Sheppard, John; Slay, Jill; Ryšavý, Ondřej
Vysoké učení technické v Brně, 2023

Automatizace návrhu systémů odolných proti poruchám
Lojda, Jakub; Plíva, Zdeněk; Steininger, Andreas; Sekanina, Lukáš
2023 - English
Pokud je požadováno, aby digitální systém dosáhl vysoké úrovně spolehlivosti, musí zachovat funkčnost i v případě přítomnosti přirozeně se objevujících poruch. Mnoho takových systémů využívá hradlová pole FPGA (z angl. Field Programmable Gate Array). Jedním z přístupů ke zvýšení spolehlivosti systému je začlenění mechanismů odolnosti proti poruchám (OPP; angl. Fault Tolerance). Není však snadné navrhovat systémy tak, aby byly OPP. V této disertační práci je navržen, prozkoumán a popsán automatický způsob transformace popisu systému do jeho podoby zvyšující OPP. Prezentovaný výzkum klade důraz na obecnost tohoto procesu, který umožňuje znovupoužitelnost metod mezi odlišnými formáty popisu, různými jazyky a úrovněmi abstrakce. Tato práce zkoumá navrhovanou metodu a její hlavní aspekty: metody úpravy zdrojového kódu, strategie návrhu OPP a akceleraci měření dosažené úrovně OPP. V neposlední řadě práce prezentuje postup návrhu, který cílí na minimalizaci požadovaných měření parametrů, což výrazně urychluje automatický návrh systému OPP. Během výzkumu prezentovaného v této práci bylo experimentálně studováno několik případů. Různé obvody popsané v odlišných jazycích byly optimalizovány dle rozdílných metrik spolehlivosti tak, aby během výzkumu bylo pokryto více scénářů. První kroky ve výzkumu využívají řídicí jednotku robota napsanou v C++ jako cíl pro vyhodnocení manipulace se zdrojovým kódem. Optimalizace se zaměřuje na procentuální zastoupení tzv. kritických bitů (z angl. critical bits) na FPGA. Následně byly místo řídicí jednotky robota použity naše testovací obvody, rovněž popsané v C++. K automatickému přiřazení nejvhodnějších mechanismů OPP (např. třímodulové redundance, z angl. Triple Modular Redundancy - TMR; nebo N-modular Redundancy - NMR) byla nejprve použita strategie založená na Multiple-choice Knapsack Problem (MCKP). Navrhovaná strategie nalezla řešení snižující počet kritických bitů o 18 % a zároveň snížila velikost obvodu (obojí ve srovnání s předchozím přístupem se statickou alokací mechanismů OPP). Poté byly implementovány prostředky pro vkládání mechanismů OPP do VHDL kódů. Testovací obvody popsané ve VHDL byly použity rovněž se strategií MCKP k nalezení řešení s nejlepším mediánem času do selhání (též známým jako t50). Pro tuto případovou studii bylo dosaženo cca 25% úspory velikosti obvodu ve srovnání s referenčním návrhem, ve kterém byly mechanismy OPP přiřazeny staticky a ručně. Prezentovaná metoda totiž umožňuje uživateli omezit oblast na čipu, která je pro daný systém dostupná a získat výsledek o optimální spolehlivosti pro tuto danou oblast (za předpokladů blíže specifikovaných v této práci). Rovněž byla testována obnova systému, která dále zlepšila výsledky t50 o 70 %. Nakonec byla provedena komplexní případová studie na reálném obvodu - řadiči rekonfigurace FPGA. V této případové studii se v praxi představuje způsob nalezení Paretovy fronty optimálních obvodů zohledňujících více kritérií, tj. spotřeba energie, velikost a střední doba do poruchy (z angl. Mean Time to Failure - MTTF). Metoda také umí využít principů dynamické částečné rekonfigurace FPGA pro obnovu systémů. If a digital system is required to maintain a high level of reliability, it must withstand the presence of naturally-emerging failures. Many of such systems utilize Field Programmable Gate Arrays (FPGAs). One of the approaches to increase the system's reliability is the insertion of the so-called Fault Tolerance (FT) mechanisms. It is, however, a significant challenge to design systems to be FT. In this thesis, an approach is designed and researched, capable of automatically transforming an unhardened design into its FT version. The thesis emphasizes the generality of such a process, which allows for the reusability of the methods among various description formats, languages, and abstraction levels. This thesis describes the proposed method and its main aspects: the source code modification approaches, design strategies, and acceleration of FT parameters measurement. Last but not least, design flows that target the minimization of required measurements are proposed, which significantly accelerates the complete automated design of the FT system. Several cases were experimentally studied during the research presented in this thesis. Multiple circuits described in different languages were targeted with various reliability metrics to cover multiple scenarios. The first steps use a robot controller written in C++ as a target for evaluating the source code manipulations and the so-called critical bits representation of an FPGA design. After that, our C++ benchmark circuits were used instead of the robot controller. At first, a strategy based on the Multiple-choice Knapsack Problem (MCKP) was used to automatically select the most suitable hardening from available hardening schemes (e.g., Triple Modular Redundancy, or N-modular Redundancy). The proposed design strategy found a solution with 18% fewer critical bits while even lowering the design size overhead compared to the previous approach with the static allocation of FT mechanisms. After that, means of FT mechanism insertion were implemented for VHDL. VHDL benchmarks were also used with the MCKP strategy to find solutions with the best Median Time to Failure (a.k.a. t50). For the actual case study, circa 25% savings in the area were achieved compared to the reference design to which the FT mechanisms were assigned statically and manually. The method allows the user to constrain the available chip area and obtain the result optimal on reliability for this given area (under assumptions specified in the thesis). Also, system recovery was tested, which further improved the t50 results by 70%. Finally, a comprehensive case was studied on a real circuit, the FPGA reconfiguration controller. This presents a method of finding a Pareto-frontier of optimal designs considering multiple criteria (i.e., power consumption, size, and Mean Time to Failure - MTTF). The method exploits the principles of dynamic partial reconfiguration. Keywords: Fault-tolerant System Design Automation; Electronic Design Automation; Fault-tolerant System Design Flow; Redundancy Allocation and Insertion; FPGA; VHDL; C++; Automatizace návrhu systémů odolných proti poruchám; automatizace návrhu elektronických systémů; postup návrhu systémů odolných proti poruchám; alokace a vkládání redundance; FPGA; VHDL; C++ Available in a digital repository NRGL
Automatizace návrhu systémů odolných proti poruchám

Pokud je požadováno, aby digitální systém dosáhl vysoké úrovně spolehlivosti, musí zachovat funkčnost i v případě přítomnosti přirozeně se objevujících poruch. Mnoho takových systémů využívá hradlová ...

Lojda, Jakub; Plíva, Zdeněk; Steininger, Andreas; Sekanina, Lukáš
Vysoké učení technické v Brně, 2023

Detekce P vlny v patologických signálech EKG
Šaclová, Lucie; Černý, Martin; Tkacz, Ewaryst; Vítek, Martin
2023 - English
Důležitou součástí hodnocení elektrokardiogramu (EKG) a následné detekce srdečních patologií, zejména v dlouhodobém monitorování, je detekce vln P. Výsledky detekce vln P umožňují získat ze záznamu EKG více informací o srdeční činnosti. Podle správně detekovaných pozic vln P je možné detekovat a odlišit patologie, které současné programy používané v medicínské praxi identifikovat neumožňují (např. atrioventrikulární blok 1., 2. a 3. stupně, cestující pacemaker, Wolffův-Parkinsonův-Whiteův syndrom). Tato dizertační práce představuje novou metodu detekce vln P v záznamech EKG během fyziologické a zejména patologické srdeční činnosti. Metoda je založena na fázorové transformaci, inovativních pravidlech detekce a identifikaci možných patologií zpřesňující detekci vln P. Dalším důležitým výsledkem práce je vytvoření dvou veřejně dostupných databází záznamů EKG s obsahem patologií a anotovanými vlnami P. Dizertační práce je rozdělena na teoretickou část a soubor publikací představující příspěvek autora v oblasti detekce vlny P. Accurate software for the P wave detection, mainly in long-term monitoring, is an important part of electrocardiogram (ECG) evaluation and subsequent cardiac pathological events detection. The results of P wave detection allow us to obtain more information from the ECG records. According to the correct P wave detection, it is possible to detect and distinguish cardiac pathologies which are nowadays automatically undetectable by commonly used software in medical practice (events e.g. atrioventricular block 1st, 2nd and 3rd degree, WPW syndrome, wandering pacemaker, etc.). This thesis introduces a new method for P wave detection in ECG signals during both physiological and pathological heart function. This novel method is based on a phasor transform, innovative rules, and identification of possible pathologies that improve P wave detection. An equally important part of the work is the creation of two publicly available databases of physiological and pathological ECG records with annotated P waves. The dissertation is divided into theoretical analysis and a set of publications representing the contribution of the author in the area of P wave detection. Keywords: electrocardiogram; ECG analysis; QRS complex detection; P wave detection; phasor transform; pathological ECG signals; atrial fibrillation; ventricular premature contraction; ECG database; P wave annotations; elektrokardiogram; analýza EKG; detekce komplexu QRS; detekce vlny P; fázorová transformace; patologické signály EKG; fibrilace síní; komorová extrasystola; databáze EKG; anotace vln P Available in a digital repository NRGL
Detekce P vlny v patologických signálech EKG

Důležitou součástí hodnocení elektrokardiogramu (EKG) a následné detekce srdečních patologií, zejména v dlouhodobém monitorování, je detekce vln P. Výsledky detekce vln P umožňují získat ze záznamu ...

Šaclová, Lucie; Černý, Martin; Tkacz, Ewaryst; Vítek, Martin
Vysoké učení technické v Brně, 2023

In vivo aplikace holografické endoskopie
Tučková, Tereza; Brzobohatý,, Oto; Bouchal, Petr; Uhlířová, Hana
2023 - English
Pokrok v porozumění komplexním mozkovým funkcím závisí na schopnosti opticky dosáhnout jakékoli vybrané struktury a oblasti živého mozku se subbuněčným rozlišením při minimálním poškození tkáně. Zpřístupňování hlubších oblastí tkání rozptylujících světlo je v současnosti umožněno zejména vývojem optických endoskopických sond, například mikroendoskopy s gradientními čočkami (GRIN) a svazky optických vláken. Pokrok v metodách holografické modulace světla dosažený v poslední době přinesl jako další nadějný směr pro zobrazování s vysokým rozlišením hluboko ve tkáních použití vícevidových optických vláken (MMF) jako zobrazovacích prvků. Ve srovnání s endoskopy založenými na GRIN čočkách a svazcích optických vláken poskytují MMF nejvyšší poměr rozlišení obrazu ku tloušťce sondy a způsobují minimální poškození tkáně. Úvodní část práce poskytuje přehled o nejmodernějších technologiích hloubkového zobrazování mozku in vivo, vícevidové vláknové endoskopii a jejích principech s cílem představit související technologii. Hlavním technologickým zaměřením práce je použití digitálního mikrozrcátkového zařízení (DMD) k modulaci světla, šířící se MMF sondou. To umožňuje rychlé rastrování fluorescenčního vzorku v zobrazovací rovině za distální hranou vlákna. Byla sestrojena optická sestava využívající tohoto principu, bylo dosaženo vysoké stability a byly pečlivě vyhodnoceny zobrazovací vlastnosti. Ty byly demonstrovány na 2D a 3D fluorescenčních fantomových vzorcích. Dále jsme vyvinuli metodu zpracování obrazu, zlepšující jeho kvalitu a umožňující dosáhnout plného potenciálu difrakčně omezeného rozlišení. Použití algoritmů využívajících regularizované iterativní inverze, případně regularizované přímé pseudoinverze, zvyšuje kontrast a rozlišení obrazu. Další cestou k ex vivo a in vivo zobrazování bylo použití geneticky modifikované myši. Identifikovali jsme vhodné myší modely a ex vivo zobrazování mozku ukázalo, že snímky trpí silným fluorescenčním signálem pozadí z oblastí mimo ohniskovou rovinu. Proto se další práce zaměřila na vývoj technologie útlumu světla založené na konfokálním principu. Byla sestrojena optická sestava pro konfokální filtraci "dírkovou clonkou" s použitím speciální sondy složené z MMF s odstupňovaným indexem lomu spojeného s MMF se skokovým indexem, a druhého DMD. Během zobrazování byl fluorescenční signál shromážděný GRIN-SI-MMF sondou filtrován ve vzdáleném poli sondy, kde se pro každý skenovací ohniskový bod vytváří prstenec. Prstencovitý signál se pak oddělí pomocí masky na DMD2, čímž se také oddělí signál pocházející z ohniska od signálu vznikajícího mimo ohnisko. Na experimentech s použitím fantomového vzorku fluorescenčních mikrokuliček i fixované mozkové tkáně bylo prokázáno, že toto konfokální filtrování vede k zeslabení signálu pozadí, tedy signálu z mimoohniskových rovin, čímž se zvyšuje kontrast a rozlišení snímků. Tento princip konfokální filtrace v holografickém endoskopu byl rovněž demonstrován pomocí nové MMF sondy s bočním zobrazováním. Práce ukazuje jen kousek skládačky dlouhodobého komplexní vývoje optimálního nástroje pro hloubkové tkáňové zobrazování s vysokým rozlišením. Holografický endoskop využívající MMF byl zdokonalen tak, že může sloužit k rutinnímu několikahodinovému zobrazování biologických tkání s možností útlumu světla pocházejícího mimo ohniskovou rovinu. Endoskop byl testován při zobrazování fantomových vzorků i fixovaných plátků myšího mozku a in vivo cév až do hloubky 5 mm. The progress in understanding of complex brain function is conditioned by the ability to optically access any chosen structure and area in the living brain with minimal tissue damage and with sub-cellular resolution, The progress in accessing deeper into the light-scattering tissue stands nowadays largely on the development of optical endoscopic probes such as microendoscopes with incorporated graded index (GRIN) lenses and fibre-optic bundles. Due to recent advancements in holographic light shaping methodology, using multimode optical fibres (MMF) as imaging elements has become promising for high resolution imaging deep in the tissue. In comparison to GRIN-based endoscopes and fibre bundles endoscopes, MMFs provide the highest ratio of image resolution and probe thickness causing minimal tissue damage. This thesis first provides an overview of the current state-of-the-art in vivo deep brain imaging technology, multi-mode fibre-based endoscopy and its principles to introduce the related technology. The main technological focus of the thesis stands on using a digital micro-mirror device (DMD) to modulate light through the MMF probes. This enables fast raster scanning of the fluorescent sample at the imaging plane of the fibre distal facet. An optical setup exploiting this principle has been built, its imaging properties carefully evaluated, and high stability reached. Its imaging abilities have been demonstrated on 2D and 3D fluorescent phantom samples. Consequently, we have developed an image post-processing procedure to enhance the detected image and reach the full diffraction-limited resolution potential. Using algorithms, one based on a regularised iterative inversion and second on regularised direct pseudo-inversion, lead to enhancement of the image contrast and resolution. Further, we used genetically modified mice to move towards ex vivo and in vivo imaging. Suitable mouse models were identified and its ex vivo brain imaging showed that the images suffer from strong background fluorescent signal from out-of-focus planes. Therefore, further work focused on technological development for light attenuation based on the confocal principle. An optical setup for confocal “pinhole” filtration has been built using a custom-made probe consisting of graded-index MMF spliced at the tip of the step-index MMF and a second DMD. The fluorescent signal collected by the GRIN-SI-MMF was filtered in the probe far field where for every scanning focal point it forms an annular ring. This ring-signal, and thus also the out-of-focus signal, was then separated using a mask on DMD2. On a set of experiments using phantom sample of fluorescent microspheres and fixed brain tissue it has been demonstrated that this confocal filtering leads to attenuation of the background signal, the signal from the out-of-focus planes thus enhancing the images contrast and resolution. This principle of confocal filtering in the holographic endoscope has been also demonstrated using a novel side-view MMF probe. This work shows a piece of a puzzle in a long-term complex development of an optimal tool for deep-tissue and high-resolution imaging. The MMF-based holographic endoscope has been advanced to routine imaging of biological tissue in range of hours with the feature of out-of-focus light attenuation. The endoscope has been tested on imaging of phantom samples as well as fixed mouse brain slices and in vivo vasculature down to depth of 5 mm. Keywords: Holographic endoscopy; microendoscopy; optical fibre; multimode fibre; light modulator; digital micro-mirror device; transmission matrix; fluorescence imaging; computation image enhancement; mouse model; genotypization; tissue preparation; ex vivo imaging; confocal imaging; out-of-focus light suppression; in vivo imaging; Holografická endoskopie; mikroendoskopie; optické vlákno; vícevidové vlákno; modulátor světla; digitální mikro-zrcátkové zařízení; přenosová matice; fluorescenční zobrazování; výpočetní vylepšení obrazu; myší modely; genotypizace; příprava vzorku tkáně; zobrazování ex vivo; konfokální zobrazování; potlačení světla z oblastí mimo ohniskovou rovinu; zobrazování in vivo Available in a digital repository NRGL
In vivo aplikace holografické endoskopie

Pokrok v porozumění komplexním mozkovým funkcím závisí na schopnosti opticky dosáhnout jakékoli vybrané struktury a oblasti živého mozku se subbuněčným rozlišením při minimálním poškození tkáně. ...

Tučková, Tereza; Brzobohatý,, Oto; Bouchal, Petr; Uhlířová, Hana
Vysoké učení technické v Brně, 2023

Laser with Narrow Spectral Linewidth for Metrology of Length
Pham, Minh Tuan; Smrž, Martin; Peterka,, Pavel; Číp, Ondřej
2023 - English
Práce se zabývá stabilizací diodového laseru pracujícího na vlnové délce 729 nm, který slouží pro přesnou spektroskopii a interakci se zachycenými a chlazenými ionty vápníku. Interakce s iontem vyžaduje, aby excitační laser měl extrémně úzkou šířku spektrální čáry. V práci jsou vysvětleny důležité postupy a metody vedoucí k dosažení provozu laseru se spektrální šířkou čáry v řádu Hz či nižší. Součástí práce je sestavení optické sestavy pro tento laser a k ní potřebných elektro-optických prvků. Hlavní důraz je kladen na techniky stabilizace laserové frekvence pomocí externích referencí, jejich teoretický popis a implementace je rovněž součástí této práce. Jako první přístup o zúžení spektrální čáry je zvolena metoda uzamknutí optické frekvence laseru na vybranou komponentu hřebene optických frekvencí pomocí elektronických fázových závěsů. Měření spektrálního šumu bylo provedeno pomocí dvousvazkového interferometru s nevyváženými rameny. Dosažené výsledky potlačení šumu u takto uzamčeného laseru byly poté porovnány s režimem laseru volně běžícího. Dalším postupem je uzamčení spektrální čáry laseru na velmi úzkou čáru vysoce jakostního optického rezonátoru. Touto metodou jsem dosáhl laseru s velmi úzkou spektrální čáru (v řádech desítek Hz), avšak s krátkodobou stabilitou. Finálním krokem bylo pak sestavení a použití techniky "trasfer oscillator", která zajistila dodatečnou kompenzaci nežádoucího driftu rezonančního modu optického rezonátoru a tímž zajistila dlouhodobou stabilitou celého systému. Takto stabilizovaný laser na 729 nm byl testován ve spektroskopii na zakázaném přechodu opplerovsky zchlazeného iontu vápníku. The thesis deals with stabilising a diode laser operating at a wavelength of 729 nm, which is used for high-resolution spectroscopy and interacting with captured and cooled calcium ions. Interaction with the ion requires an extremely narrow spectral linewidth for the excitation laser. The work explains essential procedures and methods leading to the operation of a laser with a spectral linewidth in the order of Hz or less. The central part of the work is to design and put together an optical assembly for this laser with the necessary electro-optical elements. The main emphasis is placed on laser frequency stabilisation techniques using external references, their theoretical description and implementation are also a part of this work. The first chosen approach to narrowing the spectral linewidth is locking the optical frequency of the laser to a selected component of the optical frequency comb using electronic phase locks. Spectral noise measurements were performed using a two-beam interferometer with unbalanced arms. The achieved noise suppression results for the locked laser were then compared with the free-running laser mode. Another approach is to lock the spectral line of the laser to a very narrow line of a high-quality optical resonator. With this method, I achieved a laser with a very narrow spectral line (in the order of tens of Hz), however, with short-term stability. The next step was the construction and use of the "transfer oscillator" technique, which provided additional compensation for the unwanted drift of the resonance mode of the optical resonator and thereby ensured the long-term stability of the entire system. The laser stabilised in this way at 729 nm was tested in spectroscopy on the forbidden transition of the Doppler cooled calcium ion. Keywords: External cavity diode laser; high-finesse optical cavity; spectral linewidth; frequency stabilisation; ion clocks; clock laser; phase lock loop; transfer oscillator technique.; Polovodičový laser s externím rezonátorem; optický rezonátor s vysokou akostí; šířka spektrální čáry; stabilizace frekvence; kalciové hodiny; hodinový laser; fázový závěs; technika "transfer oscillator". Available in a digital repository NRGL
Laser with Narrow Spectral Linewidth for Metrology of Length

Práce se zabývá stabilizací diodového laseru pracujícího na vlnové délce 729 nm, který slouží pro přesnou spektroskopii a interakci se zachycenými a chlazenými ionty vápníku. Interakce s iontem ...

Pham, Minh Tuan; Smrž, Martin; Peterka,, Pavel; Číp, Ondřej
Vysoké učení technické v Brně, 2023

Teoretické a experimentální stanovení množství informací v biometrických vlastnostech lidského oka
Semerád, Lukáš; Smolík, Luděk; Thorhallsson, Torfi; Drahanský, Martin
2023 - English
Cílem této práce je navrhnout způsob a vyčíslit množství biometrické entropie v sítnici lidského oka. Jinými slovy se tato práce snaží určit, jak moc unikátní tento biometrický rys je a zda je zajištěna univerzálnost v lidské populaci. V první části je uvedeno, jak oko funguje s přihlédnutím zejména k sítnici. Jsou zde také zmíněny fyziologické základy tvorby cév v sítnici, na kterých je pak biometrické rozpoznávání v další části práce založeno. Představeny jsou také oftalmologické přístroje, navržené výzkumnou skupinou STRaDe. V další části je čtenář seznámen s nejběžnějšími onemocněními sítnice, které se projevují vizuální změnou této části těla, a tudíž i ovlivňují možnosti správného rozpoznávání. Jsou také uvedeny algoritmy, kterými lze zmíněná onemocnění detekovat. Ve čtvrté části je představen nástroj pro generování syntetických sítnic, který lze využít například pro tvorbu databází pro testování dalších algoritmů. Následující část pojednává o statistickém vyhodnocení bodů a vlastností sítnice, ze kterých posléze vychází teoretický vzorec pro výpočet na začátku zmíněné biometrické entropie sítnice. V závěrečné fázi je nastíněno několik principů, kterými je možné zmíněný teoretický vzorec vyčíslit, aby se dalo stanovit, jak unikátní zmíněný biometrický rys je. Práce by díky zjištěním mohla sloužit pro důkaz unikátnosti biometrických zařízení, založených na snímání sítnice, které v současné době nejsou zatím příliš rozšířeny. The aim of this work is to design method and quantify amount of biometric entropy in the human retina. In other words, this work seeks to determine how unique this biometric feature is, and whether universality is ensured in the human population. The first part shows how the human eye works, especially with regard to the retina. Is also mentioned the physiological basis of angiogenesis in the retina, on which biometric recognition is based in the work's next part. Further are noted ophthalmological devices designed by the STRaDe research group, which are equipped algorithms for detection of the most common diseases in the retina, which are manifested by a visual change. The fourth part presents a tool for generating synthetic retinas, which can be used to create databases for testing other algorithms. Further part deals with the statistical evaluation of the points and properties of the retina, from which it's based the theoretical formula for the calculation retina biometric entropy. In the final chapter are outlined several principles for quantify the mentioned theoretical formula. The work could serve to prove the uniqueness of biometric devices based on retinal scanning, which are currently not very widespread. Keywords: Human eye; retina; biometrics; biometric entropy; biometric system; vessel bifurcation; vessel crossing; retina diseases; synthetic retina images; retina statistical properties.; Lidské oko; sítnice; biometrie; biometrická entropie; biometrický systém; rozdvojení cév; křížení cév; onemocnění sítnice; syntetické snímky sítnice; statistické vlastnosti sítnice. Available in a digital repository NRGL
Teoretické a experimentální stanovení množství informací v biometrických vlastnostech lidského oka

Cílem této práce je navrhnout způsob a vyčíslit množství biometrické entropie v sítnici lidského oka. Jinými slovy se tato práce snaží určit, jak moc unikátní tento biometrický rys je a zda je ...

Semerád, Lukáš; Smolík, Luděk; Thorhallsson, Torfi; Drahanský, Martin
Vysoké učení technické v Brně, 2023

Molekulární samouspořádávání na površích: role pokrytí, orientace povrchu a kinetiky
Makoveev, Anton Olegovich; Lackinger, Markus; Casu, Benedetta; Čechal, Jan
2023 - English
Molekulární samouspořádávání je sofistikovaný přírodní jev založený na principech supramolekulární chemie. Není divu, že byl využit ke konstrukci molekulárních systémů na površích. Ačkoli je oblast molekulární samouspořádávání na površích poměrně vyspělá, stále ještě chybí ucelené systematické poznatky zahrnující např. univerzální parametrické modely. V této souvislosti předkládáme práci, jejímž cílem je objasnit závislost molekulárního samouspořádávání na površích na vnějších parametrech. Nejprve se zabýváme vlivem difuzně omezených podmínek. Za tímto účelem bylo zkoumáno samouspořádávání kyseliny 4,4'-bifenyldikarboxylové (BDA) na Ag(001) při úplném pokrytí monovrstvou a porovnáno se samouspořádávání při submonovrstevném pokrytí. Dále diskutujeme roli orientace povrchu. Za tímto účelem je předložena srovnávací studie samouspořádávání BDA na Ag(001) a Ag(001). Nakonec se zabýváme kinetikou procesu na povrchu a tím, jak ji lze ovlivnit netermální aktivací. Toto je demonstrováno na studiu kinetiky deprotonační reakce BDA vyvolané nízkoenergetickým elektronovým svazkem. Věříme, že naše práce přináší nové poznatky do systematického obrazu samouspořádávání molekul na površích a je tak významným krokem k vývoji ucelených parametrických modelů. Molecular self-assembly is a sophisticated natural phenomenon based on the principles of supramolecular chemistry. Not surprisingly, it has been harnessed for constructing molecular systems on surfaces. Although the field of on-surface molecular self-assembly is quite mature, it still lacks comprehensive systematic knowledge comprising universal parametric models. In this regard, we present the work aiming to shed some light on the parameter dependence of molecular self-assembly on surfaces. The first parameter we discuss is aimed at the influence of diffusion-limited conditions. For that, 4,4’-biphenyldicarboxylic acid (BDA) self-assembly on Ag(001) at complete-monolayer coverage has been investigated and compared to the self-assembly at sub-monolayer coverage. We further discuss the role of surface orientation. To do so, a comparative study of BDA self-assembly on Ag(001) and Ag(001) is put on the table. Finally, we address the kinetics of on-surface process and how it can be flexibly adjusted by non-thermal activation means. For this purpose, research on the kinetics of the BDA deprotonation reaction induced by a low-energy electron beam is demonstrated. We believe that our work brings an additional piece of knowledge into the systematic picture of molecular self-assembly on surfaces and makes a step toward the development of the holistic parametric models. Keywords: Molecular self-assembly; BDA; diffusion-limited conditions; Ag(100); Ag(111); kinetics; Molekulární samouspořádávání; BDA; difuzně omezené podmínky; Ag(100); Ag(111); kinetika Available in a digital repository NRGL
Molekulární samouspořádávání na površích: role pokrytí, orientace povrchu a kinetiky

Molekulární samouspořádávání je sofistikovaný přírodní jev založený na principech supramolekulární chemie. Není divu, že byl využit ke konstrukci molekulárních systémů na površích. Ačkoli je oblast ...

Makoveev, Anton Olegovich; Lackinger, Markus; Casu, Benedetta; Čechal, Jan
Vysoké učení technické v Brně, 2023

HLUBOKÉ UČENÍ PRO KVANTIFIKACI JEDNOVOXELOVÝCH A MULTIDIMENZIONÁLNÍCH MR SPEKTROSKOPICKÝCH SIGNÁLŮ A JEHO SROVNÁNÍ S NELINEÁRNÍM FITOVÁNÍM METODOU NEJMENŠÍCH ČTVERCŮ
Shamaei, Amir Mohammad; Latta,, Peter; Kozubek, Michal; Jiřík, Radovan
2023 - English
Pro získání koncentrace metabolitů ve vyšetřované tkáni ze signálů magnetické rezonanční spektroskopie (MRS) je nezbytné provézt předzpracování, analýzu a kvantifikaci MRS signálu. Rychlý, přesný a účinný proces zpracování (předzpracování, analýza a kvantifikace) MRS dat je však náročný. Tato práce představuje nové přístupy pro předzpracování, analýzu a kvantifikaci MRS dat založené na hlubokém učení (DL). Navržené metody potvrdily schopnost použití DL pro robustní předzpracování dat, rychlou a efektivní kvantifikaci MR spekter, odhad koncentrací metabolitů in vivo a odhad nejistoty kvantifikace. Navržené přístupy výrazně zlepšily rychlost předzpracování a kvantifikace MRS signálu a prokázaly možnost použití DL bez učitele. Z hlediska přesnosti byly získány výsledky srovnatelné s tradičními metodami. Dále byl zaveden standardní formát dat, který usnadňuje sdílení dat mezi výzkumnými skupinami pro aplikace umělé inteligence. Výsledky této studie naznačují, že navrhované přístupy založené na DL mají potenciál zlepšit přesnost a efektivitu zpracování MRS dat pro lékařskou diagnostiku. Disertační práce je rozdělena do čtyř částí: úvodu, přehledu současného stavu výzkumu, shrnutí cílů a úkolů a souboru publikací, které představují autorův přínos v oblasti aplikací DL v MRS. Preprocessing, analysis, and quantification of Magnetic resonance spectroscopy (MRS) signals are required for obtaining the metabolite concentrations of the tissue under investigation. However, a fast, accurate, and efficient post-acquisition workflow (preprocessing, analysis, and quantification) of MRS is challenging. This thesis introduces novel deep learning (DL)-based approaches for preprocessing, analysis, and quantification of MRS data. The proposed methods achieved the objectives of robust data preprocessing, fast and efficient MR spectra quantification, in-vivo concentration quantification, and the uncertainty estimation of quantification. The results showed that the proposed approaches significantly improved the speed of MRS signal preprocessing and quantification in a self-supervised manner. Our proposed methods showed comparable results with the traditional methods in terms of accuracy. Furthermore, a standard data format was introduced to facilitate data sharing among research groups for artificial intelligence applications. The findings of this study suggest that the proposed DL-based approaches have the potential to improve the accuracy and efficiency of MRS for medical diagnosis. The dissertation is structured into four parts: an introduction, a review of state-of-the-art research, a summary of the aims and objectives, and a collection of publications that showcase the author's contribution to the field of DL applications in MRS. Keywords: MR spectroscopy; inverse problem; deep learning; machine learning; convolutional neural network; metabolite quantification; frequency and phase correction.; MR spektroskopie; inverzní problém; hluboké učení; strojové učení; konvoluční neuronová síť; kvantifikace metabolitů; frekvenční a fázová korekce Available in a digital repository NRGL
HLUBOKÉ UČENÍ PRO KVANTIFIKACI JEDNOVOXELOVÝCH A MULTIDIMENZIONÁLNÍCH MR SPEKTROSKOPICKÝCH SIGNÁLŮ A JEHO SROVNÁNÍ S NELINEÁRNÍM FITOVÁNÍM METODOU NEJMENŠÍCH ČTVERCŮ

Pro získání koncentrace metabolitů ve vyšetřované tkáni ze signálů magnetické rezonanční spektroskopie (MRS) je nezbytné provézt předzpracování, analýzu a kvantifikaci MRS signálu. Rychlý, přesný a ...

Shamaei, Amir Mohammad; Latta,, Peter; Kozubek, Michal; Jiřík, Radovan
Vysoké učení technické v Brně, 2023

Automatizace návrhu systémů odolných proti poruchám
Lojda, Jakub; Plíva, Zdeněk; Steininger, Andreas; Sekanina, Lukáš
2023 - English
Pokud je požadováno, aby digitální systém dosáhl vysoké úrovně spolehlivosti, musí zachovat funkčnost i v případě přítomnosti přirozeně se objevujících poruch. Mnoho takových systémů využívá hradlová pole FPGA (z angl. Field Programmable Gate Array). Jedním z přístupů ke zvýšení spolehlivosti systému je začlenění mechanismů odolnosti proti poruchám (OPP; angl. Fault Tolerance). Není však snadné navrhovat systémy tak, aby byly OPP. V této disertační práci je navržen, prozkoumán a popsán automatický způsob transformace popisu systému do jeho podoby zvyšující OPP. Prezentovaný výzkum klade důraz na obecnost tohoto procesu, který umožňuje znovupoužitelnost metod mezi odlišnými formáty popisu, různými jazyky a úrovněmi abstrakce. Tato práce zkoumá navrhovanou metodu a její hlavní aspekty: metody úpravy zdrojového kódu, strategie návrhu OPP a akceleraci měření dosažené úrovně OPP. V neposlední řadě práce prezentuje postup návrhu, který cílí na minimalizaci požadovaných měření parametrů, což výrazně urychluje automatický návrh systému OPP. Během výzkumu prezentovaného v této práci bylo experimentálně studováno několik případů. Různé obvody popsané v odlišných jazycích byly optimalizovány dle rozdílných metrik spolehlivosti tak, aby během výzkumu bylo pokryto více scénářů. První kroky ve výzkumu využívají řídicí jednotku robota napsanou v C++ jako cíl pro vyhodnocení manipulace se zdrojovým kódem. Optimalizace se zaměřuje na procentuální zastoupení tzv. kritických bitů (z angl. critical bits) na FPGA. Následně byly místo řídicí jednotky robota použity naše testovací obvody, rovněž popsané v C++. K automatickému přiřazení nejvhodnějších mechanismů OPP (např. třímodulové redundance, z angl. Triple Modular Redundancy - TMR; nebo N-modular Redundancy - NMR) byla nejprve použita strategie založená na Multiple-choice Knapsack Problem (MCKP). Navrhovaná strategie nalezla řešení snižující počet kritických bitů o 18 % a zároveň snížila velikost obvodu (obojí ve srovnání s předchozím přístupem se statickou alokací mechanismů OPP). Poté byly implementovány prostředky pro vkládání mechanismů OPP do VHDL kódů. Testovací obvody popsané ve VHDL byly použity rovněž se strategií MCKP k nalezení řešení s nejlepším mediánem času do selhání (též známým jako t50). Pro tuto případovou studii bylo dosaženo cca 25% úspory velikosti obvodu ve srovnání s referenčním návrhem, ve kterém byly mechanismy OPP přiřazeny staticky a ručně. Prezentovaná metoda totiž umožňuje uživateli omezit oblast na čipu, která je pro daný systém dostupná a získat výsledek o optimální spolehlivosti pro tuto danou oblast (za předpokladů blíže specifikovaných v této práci). Rovněž byla testována obnova systému, která dále zlepšila výsledky t50 o 70 %. Nakonec byla provedena komplexní případová studie na reálném obvodu - řadiči rekonfigurace FPGA. V této případové studii se v praxi představuje způsob nalezení Paretovy fronty optimálních obvodů zohledňujících více kritérií, tj. spotřeba energie, velikost a střední doba do poruchy (z angl. Mean Time to Failure - MTTF). Metoda také umí využít principů dynamické částečné rekonfigurace FPGA pro obnovu systémů. If a digital system is required to maintain a high level of reliability, it must withstand the presence of naturally-emerging failures. Many of such systems utilize Field Programmable Gate Arrays (FPGAs). One of the approaches to increase the system's reliability is the insertion of the so-called Fault Tolerance (FT) mechanisms. It is, however, a significant challenge to design systems to be FT. In this thesis, an approach is designed and researched, capable of automatically transforming an unhardened design into its FT version. The thesis emphasizes the generality of such a process, which allows for the reusability of the methods among various description formats, languages, and abstraction levels. This thesis describes the proposed method and its main aspects: the source code modification approaches, design strategies, and acceleration of FT parameters measurement. Last but not least, design flows that target the minimization of required measurements are proposed, which significantly accelerates the complete automated design of the FT system. Several cases were experimentally studied during the research presented in this thesis. Multiple circuits described in different languages were targeted with various reliability metrics to cover multiple scenarios. The first steps use a robot controller written in C++ as a target for evaluating the source code manipulations and the so-called critical bits representation of an FPGA design. After that, our C++ benchmark circuits were used instead of the robot controller. At first, a strategy based on the Multiple-choice Knapsack Problem (MCKP) was used to automatically select the most suitable hardening from available hardening schemes (e.g., Triple Modular Redundancy, or N-modular Redundancy). The proposed design strategy found a solution with 18% fewer critical bits while even lowering the design size overhead compared to the previous approach with the static allocation of FT mechanisms. After that, means of FT mechanism insertion were implemented for VHDL. VHDL benchmarks were also used with the MCKP strategy to find solutions with the best Median Time to Failure (a.k.a. t50). For the actual case study, circa 25% savings in the area were achieved compared to the reference design to which the FT mechanisms were assigned statically and manually. The method allows the user to constrain the available chip area and obtain the result optimal on reliability for this given area (under assumptions specified in the thesis). Also, system recovery was tested, which further improved the t50 results by 70%. Finally, a comprehensive case was studied on a real circuit, the FPGA reconfiguration controller. This presents a method of finding a Pareto-frontier of optimal designs considering multiple criteria (i.e., power consumption, size, and Mean Time to Failure - MTTF). The method exploits the principles of dynamic partial reconfiguration. Keywords: Fault-tolerant System Design Automation; Electronic Design Automation; Fault-tolerant System Design Flow; Redundancy Allocation and Insertion; FPGA; VHDL; C++; Automatizace návrhu systémů odolných proti poruchám; automatizace návrhu elektronických systémů; postup návrhu systémů odolných proti poruchám; alokace a vkládání redundance; FPGA; VHDL; C++ Available in a digital repository NRGL
Automatizace návrhu systémů odolných proti poruchám

Pokud je požadováno, aby digitální systém dosáhl vysoké úrovně spolehlivosti, musí zachovat funkčnost i v případě přítomnosti přirozeně se objevujících poruch. Mnoho takových systémů využívá hradlová ...

Lojda, Jakub; Plíva, Zdeněk; Steininger, Andreas; Sekanina, Lukáš
Vysoké učení technické v Brně, 2023

Spojení algoritmů pro odstranění vlivu kožních onemocnění na proces rozpoznávání otisků prstů
Heidari, Mona; Derawi, Mohammad; Gomez-Barrero, Marta; Drahanský, Martin
2023 - English
Tato práce se zaměřuje na datové struktury, zpracování obrazu a metody počítačového vidění pro detekci a rozpoznávání nemocí ve snímcích otisků prstů. Počet vyvinutých biometrických systémů a dokonce i používaných biometrických charakteristik se zvyšuje. Všeobecně platí, že otisk prstu jednotlivce je jedinečný a zůstává relativně neměnný po celý život. Struktura papilárních linií se však může měnit nemocemi a může být poškozena kožními chorobami. Vzhledem k tomu, že jsou systémy do značné míry závislé na struktuře papilárních linií jednotlivce, která pozitivně ovlivňuje jejich identitu, lidé trpící kožními nemocemi mohou být diskriminováni, protože jejich papilární linie mohou být narušeny. Vliv kožních onemocnění je důležitým, ale často opomíjeným faktorem v biometrických systémech založených na otiscích prstů. Jedinec trpící kožním onemocněním, které postihuje konečky prstů nemusí být schopen používat určité biometrické systémy. Shromáždění databáze otisků prstů, ovlivněných kožními nemocemi, je náročný úkol. Je nákladný a časově náročný, vyžaduje také pomoc lékařských odborníků a ochotné účastníky trpící různými kožními nemocemi na bříšcíeh prstů. Surová databáze otisků prstů s onemocnénímí byla nejprve analyzována, aby poskytla pevný základ pro budoucí výzkum. Pro každé konkrétní onemocnění jsou nalezeny společné znaky mezi všemi snímky otisků prstů postižených nemocí a je definován obecný popis každého onemocnění a jeho vlivů. Poté automaticky přiřadíme označení na základě kombinace známého stavu obrazu otisku prstu. Navrhované řešení je integrováno s různými algoritmy zaměřenými na knihovny pro zpracování obrazu a metody počítačového vidění pro detekci objektů. Je vyhodnoceno na poškozených souborech dat otisků prstů a popisuje současný stav implementace pomocí navržených technik. Současný stav techniky pro implementaci detekce onemocnění využívá analýzu textury a detekci prvků porovnáváním hodnot intenzity pixelů v malém okolí v obraze. Vzhledem ke složitosti jednotlivých vzorů nemocí vede kombinace algoritmů analýzy textury k lepším výsledkům detekce. Kombinace Gray Level Co-occurrence Matrix (GLCM), Local Binary Pattern (LBP), pole orientací a matematické morfologie může detekovat poškození v obrazech otisků prstů. Kombinace těchto funkcí umožňuje identifikovat změny v textuře a tvaru toku papilárních linií otisků prstů způsobené nemocemi. Tyto techniky zachycují různé aspekty textury a tvaru poškození v obrazech otisků prstů a vedou k identifikaci změn v textuře způsobených nemocemi. V průběhu detekčního procesu jsou použity matematické morfologické operace pro zlepšení strukturálních detailů tím, že odstraňují malé nesrovnalosti v obraze a zjednodušují tvar objektů, což usnadňuje jejich identifikaci a izolaci, rozšiřováním hranic objektů v obraze nebo vyplněním mezer a propojením rozlomených částí objektů. To vede k lepší detekci a rozpoznání objektů.Na konci procesu detekce je použita koherence, která ukazuje hodnocení kvality polí obrazu otisku prstu na tři typy: zdravý, poškozený a pozadí. This thesis focuses on data structures, image processing, and computer vision methods for detecting and recognizing diseases in fingerprint images. The number of developed biometric systems and even used biometric characteristics is increasing. It is widely accepted that an individual's fingerprint is unique and remains relatively unchanged throughout life. However, the structure of these ridges can be changed and damaged by skin diseases. As these systems depend heavily on the structure of an individual's fingertip ridge pattern that positively determines their identity, people suffering from skin diseases might be discriminated against as their ridge patterns may be impaired. Likely, fingerprint devices have not been designed to deal with damaged fingerprints; therefore, after scanning the fingerprint, they usually reject it. The influence of skin disease is an important but often neglected factor in biometric fingerprint systems. An individual might be prevented from using specific biometric systems when suffering from a skin disease that affects the fingertips. Collecting a database of fingerprints influenced by skin diseases is a challenging task. It is expensive and time-consuming, but it also requires the assistance of medical experts and the ability to find willing participants suffering from various skin conditions on fingertips. The raw diseased fingerprint database is first analyzed to provide a solid foundation for future research. Common signs among all fingerprint images affected by the disease are found for every particular disease, and a general description of each disease and its influences is defined. Then we automatically assign the label based on a combination of the known state of the fingerprint image. The proposed solution is integrated with different algorithms focused on image processing libraries and computer vision methods for object detection. The solution has been evaluated on damaged fingerprint datasets and highlights the state of the art implementations using proposed techniques. The state of the art technique for disease detection implementations uses texture analysis and feature detection by comparing the intensity values of pixels in a small neighborhood in an image. Due to the complexity of each disease pattern, the combination of texture analysis algorithms leads to better detection results. The combination of GLCM, LBP, orientation field, and mathematical morphology can detect damage (artifacts) in fingerprint images. Combining these features makes it possible to identify changes in the texture and shape of the fingerprint flow caused by diseases. These techniques capture different aspects of the texture and shape of the damage in fingerprint images and lead to identifying changes in the texture caused by diseases. In the stages of the detection process, mathematical morphology operations are applied to improve the structural details by removing small irregularities in the image and simplify the shape of objects, making it easier to identify and isolate them expanding the boundaries of objects in an image or filling gaps and connect broken parts of objects, leading to better object detection and recognition. At the end of the detection process, coherence is applied to show the quality evaluation of fingerprint image patches into three types healthy, damaged, and background. Overall, the proposed solution showcases the effectiveness of integrating multiple image processing and computer vision algorithms for disease detection in fingerprint images.\ The combination of these algorithms can accurately detect and localize disease patterns in damaged fingerprint datasets, thus providing a reliable solution for disease detection in forensic applications. Keywords: Diseased fingerprint detection; biometrics; computer vision methods; signal processing; pattern recognition; fingerprint database.; Detekce onemocnění otisků prstů; biometrie; metody počítačového vidění; zpracování signálu; rozpoznávání vzorů; databáze otisků prstů. Available in a digital repository NRGL
Spojení algoritmů pro odstranění vlivu kožních onemocnění na proces rozpoznávání otisků prstů

Tato práce se zaměřuje na datové struktury, zpracování obrazu a metody počítačového vidění pro detekci a rozpoznávání nemocí ve snímcích otisků prstů. Počet vyvinutých biometrických systémů a dokonce ...

Heidari, Mona; Derawi, Mohammad; Gomez-Barrero, Marta; Drahanský, Martin
Vysoké učení technické v Brně, 2023

About project

NRGL provides central access to information on grey literature produced in the Czech Republic in the fields of science, research and education. You can find more information about grey literature and NRGL at service web

Send your suggestions and comments to nusl@techlib.cz

Provider

http://www.techlib.cz

Facebook

Other bases