Number of found documents: 1174
Published from to

Laser with Narrow Spectral Linewidth for Metrology of Length
Pham, Minh Tuan; Smrž, Martin; Peterka,, Pavel; Číp, Ondřej
2023 - English
Práce se zabývá stabilizací diodového laseru pracujícího na vlnové délce 729 nm, který slouží pro přesnou spektroskopii a interakci se zachycenými a chlazenými ionty vápníku. Interakce s iontem vyžaduje, aby excitační laser měl extrémně úzkou šířku spektrální čáry. V práci jsou vysvětleny důležité postupy a metody vedoucí k dosažení provozu laseru se spektrální šířkou čáry v řádu Hz či nižší. Součástí práce je sestavení optické sestavy pro tento laser a k ní potřebných elektro-optických prvků. Hlavní důraz je kladen na techniky stabilizace laserové frekvence pomocí externích referencí, jejich teoretický popis a implementace je rovněž součástí této práce. Jako první přístup o zúžení spektrální čáry je zvolena metoda uzamknutí optické frekvence laseru na vybranou komponentu hřebene optických frekvencí pomocí elektronických fázových závěsů. Měření spektrálního šumu bylo provedeno pomocí dvousvazkového interferometru s nevyváženými rameny. Dosažené výsledky potlačení šumu u takto uzamčeného laseru byly poté porovnány s režimem laseru volně běžícího. Dalším postupem je uzamčení spektrální čáry laseru na velmi úzkou čáru vysoce jakostního optického rezonátoru. Touto metodou jsem dosáhl laseru s velmi úzkou spektrální čáru (v řádech desítek Hz), avšak s krátkodobou stabilitou. Finálním krokem bylo pak sestavení a použití techniky "trasfer oscillator", která zajistila dodatečnou kompenzaci nežádoucího driftu rezonančního modu optického rezonátoru a tímž zajistila dlouhodobou stabilitou celého systému. Takto stabilizovaný laser na 729 nm byl testován ve spektroskopii na zakázaném přechodu opplerovsky zchlazeného iontu vápníku. The thesis deals with stabilising a diode laser operating at a wavelength of 729 nm, which is used for high-resolution spectroscopy and interacting with captured and cooled calcium ions. Interaction with the ion requires an extremely narrow spectral linewidth for the excitation laser. The work explains essential procedures and methods leading to the operation of a laser with a spectral linewidth in the order of Hz or less. The central part of the work is to design and put together an optical assembly for this laser with the necessary electro-optical elements. The main emphasis is placed on laser frequency stabilisation techniques using external references, their theoretical description and implementation are also a part of this work. The first chosen approach to narrowing the spectral linewidth is locking the optical frequency of the laser to a selected component of the optical frequency comb using electronic phase locks. Spectral noise measurements were performed using a two-beam interferometer with unbalanced arms. The achieved noise suppression results for the locked laser were then compared with the free-running laser mode. Another approach is to lock the spectral line of the laser to a very narrow line of a high-quality optical resonator. With this method, I achieved a laser with a very narrow spectral line (in the order of tens of Hz), however, with short-term stability. The next step was the construction and use of the "transfer oscillator" technique, which provided additional compensation for the unwanted drift of the resonance mode of the optical resonator and thereby ensured the long-term stability of the entire system. The laser stabilised in this way at 729 nm was tested in spectroscopy on the forbidden transition of the Doppler cooled calcium ion. Keywords: External cavity diode laser; high-finesse optical cavity; spectral linewidth; frequency stabilisation; ion clocks; clock laser; phase lock loop; transfer oscillator technique.; Polovodičový laser s externím rezonátorem; optický rezonátor s vysokou akostí; šířka spektrální čáry; stabilizace frekvence; kalciové hodiny; hodinový laser; fázový závěs; technika "transfer oscillator". Available in a digital repository NRGL
Laser with Narrow Spectral Linewidth for Metrology of Length

Práce se zabývá stabilizací diodového laseru pracujícího na vlnové délce 729 nm, který slouží pro přesnou spektroskopii a interakci se zachycenými a chlazenými ionty vápníku. Interakce s iontem ...

Pham, Minh Tuan; Smrž, Martin; Peterka,, Pavel; Číp, Ondřej
Vysoké učení technické v Brně, 2023

Teoretické a experimentální stanovení množství informací v biometrických vlastnostech lidského oka
Semerád, Lukáš; Smolík, Luděk; Thorhallsson, Torfi; Drahanský, Martin
2023 - English
Cílem této práce je navrhnout způsob a vyčíslit množství biometrické entropie v sítnici lidského oka. Jinými slovy se tato práce snaží určit, jak moc unikátní tento biometrický rys je a zda je zajištěna univerzálnost v lidské populaci. V první části je uvedeno, jak oko funguje s přihlédnutím zejména k sítnici. Jsou zde také zmíněny fyziologické základy tvorby cév v sítnici, na kterých je pak biometrické rozpoznávání v další části práce založeno. Představeny jsou také oftalmologické přístroje, navržené výzkumnou skupinou STRaDe. V další části je čtenář seznámen s nejběžnějšími onemocněními sítnice, které se projevují vizuální změnou této části těla, a tudíž i ovlivňují možnosti správného rozpoznávání. Jsou také uvedeny algoritmy, kterými lze zmíněná onemocnění detekovat. Ve čtvrté části je představen nástroj pro generování syntetických sítnic, který lze využít například pro tvorbu databází pro testování dalších algoritmů. Následující část pojednává o statistickém vyhodnocení bodů a vlastností sítnice, ze kterých posléze vychází teoretický vzorec pro výpočet na začátku zmíněné biometrické entropie sítnice. V závěrečné fázi je nastíněno několik principů, kterými je možné zmíněný teoretický vzorec vyčíslit, aby se dalo stanovit, jak unikátní zmíněný biometrický rys je. Práce by díky zjištěním mohla sloužit pro důkaz unikátnosti biometrických zařízení, založených na snímání sítnice, které v současné době nejsou zatím příliš rozšířeny. The aim of this work is to design method and quantify amount of biometric entropy in the human retina. In other words, this work seeks to determine how unique this biometric feature is, and whether universality is ensured in the human population. The first part shows how the human eye works, especially with regard to the retina. Is also mentioned the physiological basis of angiogenesis in the retina, on which biometric recognition is based in the work's next part. Further are noted ophthalmological devices designed by the STRaDe research group, which are equipped algorithms for detection of the most common diseases in the retina, which are manifested by a visual change. The fourth part presents a tool for generating synthetic retinas, which can be used to create databases for testing other algorithms. Further part deals with the statistical evaluation of the points and properties of the retina, from which it's based the theoretical formula for the calculation retina biometric entropy. In the final chapter are outlined several principles for quantify the mentioned theoretical formula. The work could serve to prove the uniqueness of biometric devices based on retinal scanning, which are currently not very widespread. Keywords: Human eye; retina; biometrics; biometric entropy; biometric system; vessel bifurcation; vessel crossing; retina diseases; synthetic retina images; retina statistical properties.; Lidské oko; sítnice; biometrie; biometrická entropie; biometrický systém; rozdvojení cév; křížení cév; onemocnění sítnice; syntetické snímky sítnice; statistické vlastnosti sítnice. Available in a digital repository NRGL
Teoretické a experimentální stanovení množství informací v biometrických vlastnostech lidského oka

Cílem této práce je navrhnout způsob a vyčíslit množství biometrické entropie v sítnici lidského oka. Jinými slovy se tato práce snaží určit, jak moc unikátní tento biometrický rys je a zda je ...

Semerád, Lukáš; Smolík, Luděk; Thorhallsson, Torfi; Drahanský, Martin
Vysoké učení technické v Brně, 2023

Molekulární samouspořádávání na površích: role pokrytí, orientace povrchu a kinetiky
Makoveev, Anton Olegovich; Lackinger, Markus; Casu, Benedetta; Čechal, Jan
2023 - English
Molekulární samouspořádávání je sofistikovaný přírodní jev založený na principech supramolekulární chemie. Není divu, že byl využit ke konstrukci molekulárních systémů na površích. Ačkoli je oblast molekulární samouspořádávání na površích poměrně vyspělá, stále ještě chybí ucelené systematické poznatky zahrnující např. univerzální parametrické modely. V této souvislosti předkládáme práci, jejímž cílem je objasnit závislost molekulárního samouspořádávání na površích na vnějších parametrech. Nejprve se zabýváme vlivem difuzně omezených podmínek. Za tímto účelem bylo zkoumáno samouspořádávání kyseliny 4,4'-bifenyldikarboxylové (BDA) na Ag(001) při úplném pokrytí monovrstvou a porovnáno se samouspořádávání při submonovrstevném pokrytí. Dále diskutujeme roli orientace povrchu. Za tímto účelem je předložena srovnávací studie samouspořádávání BDA na Ag(001) a Ag(001). Nakonec se zabýváme kinetikou procesu na povrchu a tím, jak ji lze ovlivnit netermální aktivací. Toto je demonstrováno na studiu kinetiky deprotonační reakce BDA vyvolané nízkoenergetickým elektronovým svazkem. Věříme, že naše práce přináší nové poznatky do systematického obrazu samouspořádávání molekul na površích a je tak významným krokem k vývoji ucelených parametrických modelů. Molecular self-assembly is a sophisticated natural phenomenon based on the principles of supramolecular chemistry. Not surprisingly, it has been harnessed for constructing molecular systems on surfaces. Although the field of on-surface molecular self-assembly is quite mature, it still lacks comprehensive systematic knowledge comprising universal parametric models. In this regard, we present the work aiming to shed some light on the parameter dependence of molecular self-assembly on surfaces. The first parameter we discuss is aimed at the influence of diffusion-limited conditions. For that, 4,4’-biphenyldicarboxylic acid (BDA) self-assembly on Ag(001) at complete-monolayer coverage has been investigated and compared to the self-assembly at sub-monolayer coverage. We further discuss the role of surface orientation. To do so, a comparative study of BDA self-assembly on Ag(001) and Ag(001) is put on the table. Finally, we address the kinetics of on-surface process and how it can be flexibly adjusted by non-thermal activation means. For this purpose, research on the kinetics of the BDA deprotonation reaction induced by a low-energy electron beam is demonstrated. We believe that our work brings an additional piece of knowledge into the systematic picture of molecular self-assembly on surfaces and makes a step toward the development of the holistic parametric models. Keywords: Molecular self-assembly; BDA; diffusion-limited conditions; Ag(100); Ag(111); kinetics; Molekulární samouspořádávání; BDA; difuzně omezené podmínky; Ag(100); Ag(111); kinetika Available in a digital repository NRGL
Molekulární samouspořádávání na površích: role pokrytí, orientace povrchu a kinetiky

Molekulární samouspořádávání je sofistikovaný přírodní jev založený na principech supramolekulární chemie. Není divu, že byl využit ke konstrukci molekulárních systémů na površích. Ačkoli je oblast ...

Makoveev, Anton Olegovich; Lackinger, Markus; Casu, Benedetta; Čechal, Jan
Vysoké učení technické v Brně, 2023

HLUBOKÉ UČENÍ PRO KVANTIFIKACI JEDNOVOXELOVÝCH A MULTIDIMENZIONÁLNÍCH MR SPEKTROSKOPICKÝCH SIGNÁLŮ A JEHO SROVNÁNÍ S NELINEÁRNÍM FITOVÁNÍM METODOU NEJMENŠÍCH ČTVERCŮ
Shamaei, Amir Mohammad; Latta,, Peter; Kozubek, Michal; Jiřík, Radovan
2023 - English
Pro získání koncentrace metabolitů ve vyšetřované tkáni ze signálů magnetické rezonanční spektroskopie (MRS) je nezbytné provézt předzpracování, analýzu a kvantifikaci MRS signálu. Rychlý, přesný a účinný proces zpracování (předzpracování, analýza a kvantifikace) MRS dat je však náročný. Tato práce představuje nové přístupy pro předzpracování, analýzu a kvantifikaci MRS dat založené na hlubokém učení (DL). Navržené metody potvrdily schopnost použití DL pro robustní předzpracování dat, rychlou a efektivní kvantifikaci MR spekter, odhad koncentrací metabolitů in vivo a odhad nejistoty kvantifikace. Navržené přístupy výrazně zlepšily rychlost předzpracování a kvantifikace MRS signálu a prokázaly možnost použití DL bez učitele. Z hlediska přesnosti byly získány výsledky srovnatelné s tradičními metodami. Dále byl zaveden standardní formát dat, který usnadňuje sdílení dat mezi výzkumnými skupinami pro aplikace umělé inteligence. Výsledky této studie naznačují, že navrhované přístupy založené na DL mají potenciál zlepšit přesnost a efektivitu zpracování MRS dat pro lékařskou diagnostiku. Disertační práce je rozdělena do čtyř částí: úvodu, přehledu současného stavu výzkumu, shrnutí cílů a úkolů a souboru publikací, které představují autorův přínos v oblasti aplikací DL v MRS. Preprocessing, analysis, and quantification of Magnetic resonance spectroscopy (MRS) signals are required for obtaining the metabolite concentrations of the tissue under investigation. However, a fast, accurate, and efficient post-acquisition workflow (preprocessing, analysis, and quantification) of MRS is challenging. This thesis introduces novel deep learning (DL)-based approaches for preprocessing, analysis, and quantification of MRS data. The proposed methods achieved the objectives of robust data preprocessing, fast and efficient MR spectra quantification, in-vivo concentration quantification, and the uncertainty estimation of quantification. The results showed that the proposed approaches significantly improved the speed of MRS signal preprocessing and quantification in a self-supervised manner. Our proposed methods showed comparable results with the traditional methods in terms of accuracy. Furthermore, a standard data format was introduced to facilitate data sharing among research groups for artificial intelligence applications. The findings of this study suggest that the proposed DL-based approaches have the potential to improve the accuracy and efficiency of MRS for medical diagnosis. The dissertation is structured into four parts: an introduction, a review of state-of-the-art research, a summary of the aims and objectives, and a collection of publications that showcase the author's contribution to the field of DL applications in MRS. Keywords: MR spectroscopy; inverse problem; deep learning; machine learning; convolutional neural network; metabolite quantification; frequency and phase correction.; MR spektroskopie; inverzní problém; hluboké učení; strojové učení; konvoluční neuronová síť; kvantifikace metabolitů; frekvenční a fázová korekce Available in a digital repository NRGL
HLUBOKÉ UČENÍ PRO KVANTIFIKACI JEDNOVOXELOVÝCH A MULTIDIMENZIONÁLNÍCH MR SPEKTROSKOPICKÝCH SIGNÁLŮ A JEHO SROVNÁNÍ S NELINEÁRNÍM FITOVÁNÍM METODOU NEJMENŠÍCH ČTVERCŮ

Pro získání koncentrace metabolitů ve vyšetřované tkáni ze signálů magnetické rezonanční spektroskopie (MRS) je nezbytné provézt předzpracování, analýzu a kvantifikaci MRS signálu. Rychlý, přesný a ...

Shamaei, Amir Mohammad; Latta,, Peter; Kozubek, Michal; Jiřík, Radovan
Vysoké učení technické v Brně, 2023

Automatizace návrhu systémů odolných proti poruchám
Lojda, Jakub; Plíva, Zdeněk; Steininger, Andreas; Sekanina, Lukáš
2023 - English
Pokud je požadováno, aby digitální systém dosáhl vysoké úrovně spolehlivosti, musí zachovat funkčnost i v případě přítomnosti přirozeně se objevujících poruch. Mnoho takových systémů využívá hradlová pole FPGA (z angl. Field Programmable Gate Array). Jedním z přístupů ke zvýšení spolehlivosti systému je začlenění mechanismů odolnosti proti poruchám (OPP; angl. Fault Tolerance). Není však snadné navrhovat systémy tak, aby byly OPP. V této disertační práci je navržen, prozkoumán a popsán automatický způsob transformace popisu systému do jeho podoby zvyšující OPP. Prezentovaný výzkum klade důraz na obecnost tohoto procesu, který umožňuje znovupoužitelnost metod mezi odlišnými formáty popisu, různými jazyky a úrovněmi abstrakce. Tato práce zkoumá navrhovanou metodu a její hlavní aspekty: metody úpravy zdrojového kódu, strategie návrhu OPP a akceleraci měření dosažené úrovně OPP. V neposlední řadě práce prezentuje postup návrhu, který cílí na minimalizaci požadovaných měření parametrů, což výrazně urychluje automatický návrh systému OPP. Během výzkumu prezentovaného v této práci bylo experimentálně studováno několik případů. Různé obvody popsané v odlišných jazycích byly optimalizovány dle rozdílných metrik spolehlivosti tak, aby během výzkumu bylo pokryto více scénářů. První kroky ve výzkumu využívají řídicí jednotku robota napsanou v C++ jako cíl pro vyhodnocení manipulace se zdrojovým kódem. Optimalizace se zaměřuje na procentuální zastoupení tzv. kritických bitů (z angl. critical bits) na FPGA. Následně byly místo řídicí jednotky robota použity naše testovací obvody, rovněž popsané v C++. K automatickému přiřazení nejvhodnějších mechanismů OPP (např. třímodulové redundance, z angl. Triple Modular Redundancy - TMR; nebo N-modular Redundancy - NMR) byla nejprve použita strategie založená na Multiple-choice Knapsack Problem (MCKP). Navrhovaná strategie nalezla řešení snižující počet kritických bitů o 18 % a zároveň snížila velikost obvodu (obojí ve srovnání s předchozím přístupem se statickou alokací mechanismů OPP). Poté byly implementovány prostředky pro vkládání mechanismů OPP do VHDL kódů. Testovací obvody popsané ve VHDL byly použity rovněž se strategií MCKP k nalezení řešení s nejlepším mediánem času do selhání (též známým jako t50). Pro tuto případovou studii bylo dosaženo cca 25% úspory velikosti obvodu ve srovnání s referenčním návrhem, ve kterém byly mechanismy OPP přiřazeny staticky a ručně. Prezentovaná metoda totiž umožňuje uživateli omezit oblast na čipu, která je pro daný systém dostupná a získat výsledek o optimální spolehlivosti pro tuto danou oblast (za předpokladů blíže specifikovaných v této práci). Rovněž byla testována obnova systému, která dále zlepšila výsledky t50 o 70 %. Nakonec byla provedena komplexní případová studie na reálném obvodu - řadiči rekonfigurace FPGA. V této případové studii se v praxi představuje způsob nalezení Paretovy fronty optimálních obvodů zohledňujících více kritérií, tj. spotřeba energie, velikost a střední doba do poruchy (z angl. Mean Time to Failure - MTTF). Metoda také umí využít principů dynamické částečné rekonfigurace FPGA pro obnovu systémů. If a digital system is required to maintain a high level of reliability, it must withstand the presence of naturally-emerging failures. Many of such systems utilize Field Programmable Gate Arrays (FPGAs). One of the approaches to increase the system's reliability is the insertion of the so-called Fault Tolerance (FT) mechanisms. It is, however, a significant challenge to design systems to be FT. In this thesis, an approach is designed and researched, capable of automatically transforming an unhardened design into its FT version. The thesis emphasizes the generality of such a process, which allows for the reusability of the methods among various description formats, languages, and abstraction levels. This thesis describes the proposed method and its main aspects: the source code modification approaches, design strategies, and acceleration of FT parameters measurement. Last but not least, design flows that target the minimization of required measurements are proposed, which significantly accelerates the complete automated design of the FT system. Several cases were experimentally studied during the research presented in this thesis. Multiple circuits described in different languages were targeted with various reliability metrics to cover multiple scenarios. The first steps use a robot controller written in C++ as a target for evaluating the source code manipulations and the so-called critical bits representation of an FPGA design. After that, our C++ benchmark circuits were used instead of the robot controller. At first, a strategy based on the Multiple-choice Knapsack Problem (MCKP) was used to automatically select the most suitable hardening from available hardening schemes (e.g., Triple Modular Redundancy, or N-modular Redundancy). The proposed design strategy found a solution with 18% fewer critical bits while even lowering the design size overhead compared to the previous approach with the static allocation of FT mechanisms. After that, means of FT mechanism insertion were implemented for VHDL. VHDL benchmarks were also used with the MCKP strategy to find solutions with the best Median Time to Failure (a.k.a. t50). For the actual case study, circa 25% savings in the area were achieved compared to the reference design to which the FT mechanisms were assigned statically and manually. The method allows the user to constrain the available chip area and obtain the result optimal on reliability for this given area (under assumptions specified in the thesis). Also, system recovery was tested, which further improved the t50 results by 70%. Finally, a comprehensive case was studied on a real circuit, the FPGA reconfiguration controller. This presents a method of finding a Pareto-frontier of optimal designs considering multiple criteria (i.e., power consumption, size, and Mean Time to Failure - MTTF). The method exploits the principles of dynamic partial reconfiguration. Keywords: Fault-tolerant System Design Automation; Electronic Design Automation; Fault-tolerant System Design Flow; Redundancy Allocation and Insertion; FPGA; VHDL; C++; Automatizace návrhu systémů odolných proti poruchám; automatizace návrhu elektronických systémů; postup návrhu systémů odolných proti poruchám; alokace a vkládání redundance; FPGA; VHDL; C++ Available in a digital repository NRGL
Automatizace návrhu systémů odolných proti poruchám

Pokud je požadováno, aby digitální systém dosáhl vysoké úrovně spolehlivosti, musí zachovat funkčnost i v případě přítomnosti přirozeně se objevujících poruch. Mnoho takových systémů využívá hradlová ...

Lojda, Jakub; Plíva, Zdeněk; Steininger, Andreas; Sekanina, Lukáš
Vysoké učení technické v Brně, 2023

Spojení algoritmů pro odstranění vlivu kožních onemocnění na proces rozpoznávání otisků prstů
Heidari, Mona; Derawi, Mohammad; Gomez-Barrero, Marta; Drahanský, Martin
2023 - English
Tato práce se zaměřuje na datové struktury, zpracování obrazu a metody počítačového vidění pro detekci a rozpoznávání nemocí ve snímcích otisků prstů. Počet vyvinutých biometrických systémů a dokonce i používaných biometrických charakteristik se zvyšuje. Všeobecně platí, že otisk prstu jednotlivce je jedinečný a zůstává relativně neměnný po celý život. Struktura papilárních linií se však může měnit nemocemi a může být poškozena kožními chorobami. Vzhledem k tomu, že jsou systémy do značné míry závislé na struktuře papilárních linií jednotlivce, která pozitivně ovlivňuje jejich identitu, lidé trpící kožními nemocemi mohou být diskriminováni, protože jejich papilární linie mohou být narušeny. Vliv kožních onemocnění je důležitým, ale často opomíjeným faktorem v biometrických systémech založených na otiscích prstů. Jedinec trpící kožním onemocněním, které postihuje konečky prstů nemusí být schopen používat určité biometrické systémy. Shromáždění databáze otisků prstů, ovlivněných kožními nemocemi, je náročný úkol. Je nákladný a časově náročný, vyžaduje také pomoc lékařských odborníků a ochotné účastníky trpící různými kožními nemocemi na bříšcíeh prstů. Surová databáze otisků prstů s onemocnénímí byla nejprve analyzována, aby poskytla pevný základ pro budoucí výzkum. Pro každé konkrétní onemocnění jsou nalezeny společné znaky mezi všemi snímky otisků prstů postižených nemocí a je definován obecný popis každého onemocnění a jeho vlivů. Poté automaticky přiřadíme označení na základě kombinace známého stavu obrazu otisku prstu. Navrhované řešení je integrováno s různými algoritmy zaměřenými na knihovny pro zpracování obrazu a metody počítačového vidění pro detekci objektů. Je vyhodnoceno na poškozených souborech dat otisků prstů a popisuje současný stav implementace pomocí navržených technik. Současný stav techniky pro implementaci detekce onemocnění využívá analýzu textury a detekci prvků porovnáváním hodnot intenzity pixelů v malém okolí v obraze. Vzhledem ke složitosti jednotlivých vzorů nemocí vede kombinace algoritmů analýzy textury k lepším výsledkům detekce. Kombinace Gray Level Co-occurrence Matrix (GLCM), Local Binary Pattern (LBP), pole orientací a matematické morfologie může detekovat poškození v obrazech otisků prstů. Kombinace těchto funkcí umožňuje identifikovat změny v textuře a tvaru toku papilárních linií otisků prstů způsobené nemocemi. Tyto techniky zachycují různé aspekty textury a tvaru poškození v obrazech otisků prstů a vedou k identifikaci změn v textuře způsobených nemocemi. V průběhu detekčního procesu jsou použity matematické morfologické operace pro zlepšení strukturálních detailů tím, že odstraňují malé nesrovnalosti v obraze a zjednodušují tvar objektů, což usnadňuje jejich identifikaci a izolaci, rozšiřováním hranic objektů v obraze nebo vyplněním mezer a propojením rozlomených částí objektů. To vede k lepší detekci a rozpoznání objektů.Na konci procesu detekce je použita koherence, která ukazuje hodnocení kvality polí obrazu otisku prstu na tři typy: zdravý, poškozený a pozadí. This thesis focuses on data structures, image processing, and computer vision methods for detecting and recognizing diseases in fingerprint images. The number of developed biometric systems and even used biometric characteristics is increasing. It is widely accepted that an individual's fingerprint is unique and remains relatively unchanged throughout life. However, the structure of these ridges can be changed and damaged by skin diseases. As these systems depend heavily on the structure of an individual's fingertip ridge pattern that positively determines their identity, people suffering from skin diseases might be discriminated against as their ridge patterns may be impaired. Likely, fingerprint devices have not been designed to deal with damaged fingerprints; therefore, after scanning the fingerprint, they usually reject it. The influence of skin disease is an important but often neglected factor in biometric fingerprint systems. An individual might be prevented from using specific biometric systems when suffering from a skin disease that affects the fingertips. Collecting a database of fingerprints influenced by skin diseases is a challenging task. It is expensive and time-consuming, but it also requires the assistance of medical experts and the ability to find willing participants suffering from various skin conditions on fingertips. The raw diseased fingerprint database is first analyzed to provide a solid foundation for future research. Common signs among all fingerprint images affected by the disease are found for every particular disease, and a general description of each disease and its influences is defined. Then we automatically assign the label based on a combination of the known state of the fingerprint image. The proposed solution is integrated with different algorithms focused on image processing libraries and computer vision methods for object detection. The solution has been evaluated on damaged fingerprint datasets and highlights the state of the art implementations using proposed techniques. The state of the art technique for disease detection implementations uses texture analysis and feature detection by comparing the intensity values of pixels in a small neighborhood in an image. Due to the complexity of each disease pattern, the combination of texture analysis algorithms leads to better detection results. The combination of GLCM, LBP, orientation field, and mathematical morphology can detect damage (artifacts) in fingerprint images. Combining these features makes it possible to identify changes in the texture and shape of the fingerprint flow caused by diseases. These techniques capture different aspects of the texture and shape of the damage in fingerprint images and lead to identifying changes in the texture caused by diseases. In the stages of the detection process, mathematical morphology operations are applied to improve the structural details by removing small irregularities in the image and simplify the shape of objects, making it easier to identify and isolate them expanding the boundaries of objects in an image or filling gaps and connect broken parts of objects, leading to better object detection and recognition. At the end of the detection process, coherence is applied to show the quality evaluation of fingerprint image patches into three types healthy, damaged, and background. Overall, the proposed solution showcases the effectiveness of integrating multiple image processing and computer vision algorithms for disease detection in fingerprint images.\ The combination of these algorithms can accurately detect and localize disease patterns in damaged fingerprint datasets, thus providing a reliable solution for disease detection in forensic applications. Keywords: Diseased fingerprint detection; biometrics; computer vision methods; signal processing; pattern recognition; fingerprint database.; Detekce onemocnění otisků prstů; biometrie; metody počítačového vidění; zpracování signálu; rozpoznávání vzorů; databáze otisků prstů. Available in a digital repository NRGL
Spojení algoritmů pro odstranění vlivu kožních onemocnění na proces rozpoznávání otisků prstů

Tato práce se zaměřuje na datové struktury, zpracování obrazu a metody počítačového vidění pro detekci a rozpoznávání nemocí ve snímcích otisků prstů. Počet vyvinutých biometrických systémů a dokonce ...

Heidari, Mona; Derawi, Mohammad; Gomez-Barrero, Marta; Drahanský, Martin
Vysoké učení technické v Brně, 2023

Rozpoznávání řeči do textu s částečným dohledem a kritikem založeným na převodu z textu do řeči
Baskar, Murali Karthick; Manohar, Vimal; Trmal, Jan; Burget, Lukáš
2023 - English
Modely pro automatické rozpoznávání řeči (ASR) vyžadují pro dosažení přijatelné přesnosti velké množství trénovacích dat. Z tohoto důvodu se v poslední době zvýšil zájem o trénování seq2seq modelů bez dohledu a s částečným dohledem. Tato práce vychází z nedávných výsledků, které ukázaly výrazné zlepšení trénování s částečným dohledem pomocí cyklické konzistence a souvisejících technik. Ty využívají trénovací postupy a kritéria schopná pomocí kombinace ASR s modely převodu textu na řeč (TTS) zužitkovat nesouvisející řečová a/nebo textová data.  Tato práce nejprve navrhuje nový rámec pro modelování kombinující diferencovatelné end-to-end kritérium ASR->TTS s kritériem TTS->ASR. Tato metoda dokáže využít nesouvisející řečová a textová data a překonat související techniky ve slovní chybovosti (WER). Práce obsahuje rozsáhlou sadu výsledků analyzujících vliv množství dat i vliv podílu řeči a textu na opravách chyb. Výsledky dokládají konzistentní zlepšení na korpusech WSJ a LibriSpeech.   Práce se rovněž zabývá omezeními modelu ASR<->TTS v podmínkách mimo doménu trénovacích dat (out-of-domain). Navrhujeme vylepšený model ASR<->TTS (EAT), zahrnující dva klíčové komponenty: 1) směr ASR->TTS je doplněn jazykovým model, který penalizuje hypotézy ASR před jejich vstupem do TTS; a 2) ve směru TTS->ASR je zavedena regularizace trénovaná bez dohledu tak, aby opravovala syntetizovanou řeč před vstupem do modelu ASR. Zkoumáme strategie trénování a účinnost modelu EAT a porovnáme jej s přístupy umělého zvyšování množství (augmentace) dat. Výsledky ukazují, že model EAT snižuje rozdíl v úspěšnosti mezi trénováním bez dohledu a trénováním s částečným dohledem absolutně o 2,6% WER na LibriSpeech datech a o 2,7% WER na BABEL datech. Sequence-to-sequence automatic speech recognition (ASR) models require large quantities of training data to attain good performance. For this reason, unsupervised and semi-supervised training in seq2seq models have recently witnessed a surge in interest. This work builds upon recent results showing notable improvements in semi-supervised training using cycle-consistency and related techniques. Such techniques derive training procedures and losses able to leverage unpaired speech and/or text data by combining ASR with text-to-speech (TTS) models. This thesis first proposes a new semi-supervised modelling framework combining an end-to-end differentiable ASR->TTS loss with TTS->ASR loss. The method is able to leverage unpaired speech and text data to outperform recently proposed related techniques in terms of word error rate (WER). We provide extensive results analysing the impact of data quantity as well as the contribution of speech and text modalities in recovering errors and show consistent gains across WSJ and LibriSpeech corpora. The thesis also discusses the limitations of the ASR<->TTS model in out-of-domain data conditions. We propose an enhanced ASR<->TTS (EAT) model incorporating two main features: 1) the ASR->TTS pipeline is equipped with a language model reward to penalize the ASR hypotheses before forwarding them to TTS; and 2) speech regularizer trained in unsupervised fashion is introduced in TTS->ASR to correct the synthesized speech before sending it to the ASR model. Training strategies and the effectiveness of the EAT model are explored and compared with augmentation approaches. The results show that EAT reduces the performance gap between supervised and semi-supervised training by absolute WER improvement of 2.6% and 2.7% on LibriSpeech and BABEL respectively. Keywords: Automatic speech recognition; text to speech; semi-supervised training; cycle-consistency; unpaired speech and text data; regularization.; Automatické rozpoznávání řeči; převod textu na řeč; trénování s částečným dohledem; cyklická konzistence; nesouvisející řeč a textová data; regularizace. Available in a digital repository NRGL
Rozpoznávání řeči do textu s částečným dohledem a kritikem založeným na převodu z textu do řeči

Modely pro automatické rozpoznávání řeči (ASR) vyžadují pro dosažení přijatelné přesnosti velké množství trénovacích dat. Z tohoto důvodu se v poslední době zvýšil zájem o trénování seq2seq modelů bez ...

Baskar, Murali Karthick; Manohar, Vimal; Trmal, Jan; Burget, Lukáš
Vysoké učení technické v Brně, 2023

Magneto-optické studie pevných látek
Solodovnyk, Artur; Malissa, Hans; Tol, Johan van; Neugebauer, Petr
2023 - English
Elektricky detekovaná magnetická resonance (EDMR) je citlivá a užitečná technika pro výzkum základních vlastností polovodičů a pevných látek. Tato práce popisuje teorii elektronové paramagnetické resonance a spektroskopie EDMR v jejímž rámci je nastíněno několik modelů spinově závislé rekombinace. Instrumentační a softwarové části jsou ředstaveny spolu s vývojem nového držáku vzorku přímo pro EDMR. Plánujeme pozvednout výzkum na poli EDMR na vyšší úroveň pomocí vývoje zařízení, které bude pracovat při frekvencích až do 1.1 THz a externím magnetickém poli do 16 T. Vezmeme-li v potaz možnosti námi postaveného THz Frequency-Domain Rapid Scan (THz FraScan) spektrometru nacházejícího se na CEITEC VUT, vzorky budeme charakterizovat pomocí obou měřicích módu, tedy zvyšování magnetického pole nebo frekvence. V porovnání s konvenční kontinuální vlnou (CW) EDMR nám tato měření umožní získat nejen závislost změny napětí na externím magnetické poli při dané frekvenci, ale také akvizici map znázorňující závislost frekvence na magnetickém poli. Electrically detected magnetic resonance (EDMR) is a sensitive and powerful technique for the determination of fundamental intrinsic properties of semiconductive solid-state materials. This work describes the fundamental theory of electron paramagnetic resonance and EDMR spectroscopy, in particular, several models of spin-dependent recombination are reviewed. The instrumental and software parts are presented, as well as the development of a new sample holder specific for EDMR. We intend to bring EDMR investigations to a new level, by developing a setup, which will operate at frequencies up to 1.1 THz and external magnetic field up to 16 T. Taking into account the possibilities of a home-built THz Frequency-Domain Rapid Scan (THz FraScan) spectrometer located in CEITEC BUT, samples will be characterized using both magnetic field and frequency sweeps. Thus, compared to the conventional continuous wave (CW) EDMR, this will allow obtaining not only the dependence of the voltage change on the external magnetic field at a given microwave frequency but also measuring frequency-field maps. Keywords: Electron paramagnetic resonance; electrically detected magnetic resonance; spectroscopy; THz; SiC; Elektronová paramagnetická rezonance; elektricky detekovaná magnetická rezonance; spektroskopie; THz; SiC Available in a digital repository NRGL
Magneto-optické studie pevných látek

Elektricky detekovaná magnetická resonance (EDMR) je citlivá a užitečná technika pro výzkum základních vlastností polovodičů a pevných látek. Tato práce popisuje teorii elektronové paramagnetické ...

Solodovnyk, Artur; Malissa, Hans; Tol, Johan van; Neugebauer, Petr
Vysoké učení technické v Brně, 2023

Kvantitativní počítačová tomografie
Šalplachta, Jakub; Keckes, Jozef; Batenburg, Joost; Kaiser, Jozef
2023 - English
Hlavním cílem této práce je prostudovat, prozkoumat a případně posunout dále oblast kvantitativní počítačové tomografie (QCT) se specifickým zaměřením na laboratorní submikronový CT systém Rigaku nano3DX. Tato práce se zabývá oběma aspekty QCT, kterými jsou akvizice kvantitativních CT dat a využití CT dat pro kvantitativní analýzu. Pokud jde o první aspekt, specifický důraz je kladen na posouzení současných technologických limitů submikronového CT, kde jsou studovány tomografické artefakty způsobené právě technickými nedostatky a navrženy optimální redukční strategie. Také praktické aspekty spojené s implementací spektrálního CT ve formě dual-targetového CT (DTCT) pomocí systému Rigaku nano3DX jsou řešeny vývojem specializovaných metodologií pro akvizici a registrace dat. Pro kvantitativní analýzu CT dat byly vyvinuty dvě nové metody. Jedna z metod byla speciálně navržena pro analýzu porozity vzorků vyrobených metodou 3D-tisku a to s ohledem na klíčové aspekty zpracování tomografických dat, díky čemuž je tato metoda objektivní a reprodukovatelná. Druhá metoda byla speciálně navržena pro kvantitativní hodnocení 3D modelů biologických tubulárních systémů a byla prakticky testována na myším modelu Alagilleova syndromu. The main aim of this thesis is to study, explore and possibly move further the field of quantitative computed tomography (QCT) with specific focus on a laboratory-based submicron computed tomography (CT) system Rigaku nano3DX. This work is dealing with both aspects of the QCT, which are the acquisition of quantitative CT data and the utilization of CT data for quantitative analysis. Regarding the first aspect, specific focus is placed on assessment of current technological limits of submicron CT, where the technology-based tomographic artifacts are studied, and optimal reduction strategies are proposed. Also, practical aspects related to implementation of spectral CT in a form of dual-target CT (DTCT) using Rigaku nano3DX system, are solved by development of dedicated acquisition and data registration methodologies. For the quantitative analysis of CT data, two novel methods were developed. One was specifically designed for porosity analysis of additive manufactured samples with a respect to the crucial points of tomographic data processing, making it objective and reproducible. Second method was specifically designed for quantitative assessment of 3D models of biological tubular systems and was practically tested on a mouse model of Alagille syndrome. Keywords: Quantitative Computed Tomography; QCT; CCD; sCMOS; tomographic artifacts reduction; dual-energy CT; porosity analysis; 3D models analysis; Kvantitativní počítačová tomografie; QCT; CCD; sCMOS; redukce tomografických artefaktů; duálně-energiové CT; analýza porosity; analýza 3D modelů Available in a digital repository NRGL
Kvantitativní počítačová tomografie

Hlavním cílem této práce je prostudovat, prozkoumat a případně posunout dále oblast kvantitativní počítačové tomografie (QCT) se specifickým zaměřením na laboratorní submikronový CT systém Rigaku ...

Šalplachta, Jakub; Keckes, Jozef; Batenburg, Joost; Kaiser, Jozef
Vysoké učení technické v Brně, 2023

Computational Models for Non-linear Mechanical Loading Analyses of Lattice Structures Made by Laser Powder Bed Fusion
Červinek, Ondřej; Dr. Michael R. Tucker; Haas/, Franz; Koutný, Daniel
2023 - English
Rozvoj aditivních technologií v posledních letech umožnil výrobu meta materiálů s porézní vnitřní architekturou zvaných mikro-prutové struktury z několika typů kovových slitin. Za pomoci těchto struktur je možné vyvíjet lehké komponenty s potenciálem v oblasti absorpce mechanické energie. Jejich implementací do deformačních zón vozidel může být docíleno zvýšení bezpečnosti posádky. Vlastnosti mikro-prutových struktur umožňují navrhnout absorbéry se specifickým typem chování, které redukuje přetížení působící na posádku vozidla v případě nehody. Pro využití těchto dílů pro specifické aplikace je nutné odhadnout jejich deformační chování. Nedávný výzkum ukázal, že základový materiál těchto struktur má odlišné vlastnosti v porovnání s konvenčními objemovými komponentami vyrobenými stejnou technologií. To znamená, že pro efektivní využití mikro-prutových struktur je zapotřebí matematicky přesně popsat jejich specifické vlastnosti a deformační charakteristiky. Nicméně matematický model, který by zahrnoval popis všech významných charakteristik deformace mikro-prutových struktur, není k dispozici. Proto se tato práce zaměřuje na vývoj nelineárního numerického modelu zatěžování mikro-prutových struktur se zahrnutím efektů spojených s nejvýznamnějšími geometrickými imperfekcemi, specifickými vlastnostmi multi-prutových vzorků a dynamickými efekty. Struktury jsou vyrobeny z hliníkové slitiny AlSi10Mg a nerezové oceli 316L s využitím technologie selektivního laserového tavení. Dva odlišné přístupy jsou použity k vytvoření modelu geometrie, což umožňuje detailní inspekci deformačního charakteru. Výsledky obou modelů potvrzují, že geometrické imperfekce spojené se změnou tvaru a velikosti průřezu prutu mají významný vliv na výsledné mechanické vlastnosti. Jejich zahrnutí do modelu geometrie zvyšuje přesnost výsledků simulace. Navíc mechanické vlastnosti mikro-prutových struktur stanovené pomocí multi-prutových vzorků výrazně lépe representují vlastnosti struktur pro kvazistatické i dynamické zatěžování. Finální parametrická ověřovací simulace zatěžování mikro-prutové struktury při několika rychlostech ukazuje dobrou shodu experimentu a výpočtového řešení. Podobná parametrická studie může v budoucnu vést k nalezení efektivních strukturovaných konfigurací pro specifické množství absorbované energie bez předchozí výroby a testování. The development of additive technologies in recent years has enabled the manufacturing of metamaterials with porous internal architecture, called lattice structures, from several types of metal alloys. With these structures, it is possible to develop lightweight parts with potential in the field of mechanical energy absorption. Their implementation in vehicle deformation zones can increase the safety of passengers. The properties of structures allow to design absorbers with specific type of behavior which reduce the overload applied on the vehicle crew during an accident. To use these parts for specific applications, it is necessary to estimate their deformational behavior. Recent research has shown that the parent material of these structures has properties different from those of conventional bulk components produced by the same technologies. It means that, for efficient use of lattice structures, their specific properties and deformation characteristics must be accurately mathematically described. However, a mathematical model that would consider a description of all significant deformation characteristics of lattice structures is not available. Therefore, this thesis focuses on development of non-linear numerical model of lattice structures loading with inclusion of the most significant geometrical imperfections, specific properties of multi-strut samples and dynamic effects. The structures are made of aluminum alloy AlSi10Mg and stainless steel 316L using the selective laser melting technology. Two different finite element analysis approaches are used to create the geometry model that allows inspection of the deformation features in detail. The results of both models confirm that geometrical imperfections related to a change in shape and cross-sectional area of the strut have a significant impact on the resulting mechanical properties. Their inclusion in the geometry model improves the accuracy of the simulation results. Furthermore, the mechanical properties of lattice structures determined by multi-strut samples significantly better represent properties of structures for quasi-static and dynamic loading. The final parameter verification simulation of lattice structures loading at several velocities shows good agreement between the experiment and the computational solution. A similar parametrical study can lead to the finding of efficient structure configurations determined for a specific amount of absorbed energy without prior manufacturing and testing. Keywords: Non-linear finite element analysis; Split Hopkinson bars test; laser powder bed fusion; lattice structures; geometrical imperfections; Nelineární analýza metody konečných prvků; test Hopkinsonových dělených tyčí; laserová fúze s práškovým ložem; mikro-prutové struktury; geometrické imperfekce Available in a digital repository NRGL
Computational Models for Non-linear Mechanical Loading Analyses of Lattice Structures Made by Laser Powder Bed Fusion

Rozvoj aditivních technologií v posledních letech umožnil výrobu meta materiálů s porézní vnitřní architekturou zvaných mikro-prutové struktury z několika typů kovových slitin. Za pomoci těchto ...

Červinek, Ondřej; Dr. Michael R. Tucker; Haas/, Franz; Koutný, Daniel
Vysoké učení technické v Brně, 2023

About project

NRGL provides central access to information on grey literature produced in the Czech Republic in the fields of science, research and education. You can find more information about grey literature and NRGL at service web

Send your suggestions and comments to nusl@techlib.cz

Provider

http://www.techlib.cz

Facebook

Other bases