Number of found documents: 2984
Published from to

Využití zpětnovazebné učení a induktivní syntézy pro konstukci robustních kontroléru v POMDPs
Hudák, David; Holík, Lukáš; Češka, Milan
2024 - English
A significant challenge in sequential decision-making involves dealing with uncertainty, which arises from inaccurate sensors or only a partial knowledge of the agent's environment. This uncertainty is formally described through the framework of partially observable Markov decision processes (POMDPs). Unlike Markov decision processes (MDP), POMDPs only provide limited information about the exact state through imprecise observations. Decision-making in such settings requires estimating the current state, and generally, achieving optimal decisions is not tractable. There are two primary strategies to address this issue. The first strategy involves formal methods that concentrate on computing belief MDPs or synthesizing finite state controllers, known for their robustness and verifiability. However, these methods often struggle with scalability and require to know the underlying model. Conversely, informal methods like reinforcement learning offer scalability but lack verifiability. This thesis aims to merge these approaches by developing and implementing various techniques for interpreting and integrating the results and communication strategies between both methods. In this thesis, our experiments show that this symbiosis can improve both approaches, and we also show that our implementation overcomes other RL implementations for similar tasks. Jednou ze současných výzev při sekvenční rozhodováním je práce s neurčitostí, která je způsobena nepřesnými senzory či neúplnou informací o prostředích, ve kterých bychom chtěli dělat rozhodnutí. Tato neurčitost je formálně popsána takzvanými částečně pozorovatelnými Markovskými rozhodovacími procesy (POMDP), které oproti Markovským rozhodovacím procesům (MDP) nahrazují informaci o konkrétním stavu nepřesným pozorováním. Pro rozhodování v takových prostředích je nutno nějakým způsobem odhadovat současný stav a obecně tvorba optimálních politik v takových prostředích není rozhodnutelná. K vyrovnání se s touto výzvou existují dva zcela odlišné přístupy, kdy lze k problému přistupovat úplnými formálními metodami, a to buď s pomocí výpočtu beliefů či syntézou konečně stavových kontrolérů, nebo metodami založenými na nepřesné aproximaci současného stavu, reprezentované především hlubokým zpětnovazebným učením. Zatímco formální přístupy jsou schopné dělat verifikovatelná a robustní rozhodnutí pro malá prostředí, tak zpětnovazebné učení je schopné škálovat na reálné problémy. Tato práce se pak soustředí na spojení těchto dvou odlišných přístupů, kdy navrhuje různé metody jak pro interpretaci výsledku, tak pro vzájemné předávání nápověd. Experimenty v této práci ukazují, že z této symbiózy mohou těžit oba přístupy, ale také že zvolený přístup ke trénování agentů už sám o sobě řádově překonává současné systémy pro trénování agentů na podobných úlohách. Keywords: Reinforcement learning; PAYNT; POMDP; interpretability; synthesis; PPO; sequential decision problems; finite state controllers; FSC; DQN; DDQN; Posilované učení; PAYNT; POMDP; interpretovatelnost; syntéza; PPO; sekvenční rozhodovací problémy; konečně stavové kontroléry; FSC; DQN; DDQN Available in a digital repository NRGL
Využití zpětnovazebné učení a induktivní syntézy pro konstukci robustních kontroléru v POMDPs

A significant challenge in sequential decision-making involves dealing with uncertainty, which arises from inaccurate sensors or only a partial knowledge of the agent's environment. This uncertainty ...

Hudák, David; Holík, Lukáš; Češka, Milan
Vysoké učení technické v Brně, 2024

Vliv AI nástrojů na kvalitu a bezpečnost kódu
Vinarčík, Peter; Holop, Patrik; Malinka, Kamil
2024 - English
This work presents a newly developed application that is able to perform fully automated large-scale research for evaluating the safety and quality of AI-generated code. Also, a new way of evaluating the safety of AI-generated code has been presented, utilizing MITRE's methodology in combination with SAST tools performing static analysis on the code. In addition, the application is enhanced with an improved AI chatbot whose output is enhanced with the results of static analysis at generation time. The user inputs a dataset of prompts into the application, and if code with a vulnerability has been generated for a particular prompt, that vulnerability is scored by the established methodology, and the user is informed not only that the code is vulnerable, but how vulnerable it is. As part of the solution, large-scale, pilot testing of popular AIs, such as ChatGPT-4 or Gemini, is performed over a dataset of prompts using the new application, in contrast to existing studies. The results showed the dominance of ChatGPT-4 running on the GPT-4 model, over the other AIs tested. Táto práca predstavuje novovytvorenú aplikáciu, ktorá je schopná vykonávať large scale výskum pre hodnotenie bezpečnosti a kvality kódu generovaného AI. Tiež bol predstavený nový spôsob vyhodnocovania bezpečnosti kódu generovaného AI, za využitia MITRE's metodológie v kombinácii so SAST toolmi vykonávajúcimi statickú analýzu nad kódom. Aplikácia je navyše rozšírená o vylepšeného AI chatbota, ktorého výstup je obohatený o výsledky statickej analýzy v čase generovania. Užívateľ vloží dataset promptov do aplikácie, a v prípade, že bol pre určitý prompt vygenerovaný kód so zraniteľnosťou, je táto zraniteľnosť ohodnotená zavedenou metodológiou a užívateľ dostáva informáciu nie len o tom, že kód je zraniteľný, ale ako veľmi. Súčasťou riešenia je aj oproti existujúcim výskumom veľké, pilotné testovanie popularných AI ako ChatGPT-4 či Gemini, nad datasetom promptov s využitím novej aplikácie. Výsledky ukázali dominanciu ChatGPT-4 bežiacom na modeli GPT-4, oproti ostatným testovaným AI. Keywords: generative AI; llm; security; cybersecurity; static analysis; sast; bandit; semgrep; codeql; chatgpt; gpt; gemini; copilot; generatívna umelá inteligencia; llm; bezpečnosť; kyberbezpečnosť; statická analýza; sast; bandit; semgrep; codeql; chatgpt; gpt; gemini; copilot Available in a digital repository NRGL
Vliv AI nástrojů na kvalitu a bezpečnost kódu

This work presents a newly developed application that is able to perform fully automated large-scale research for evaluating the safety and quality of AI-generated code. Also, a new way of evaluating ...

Vinarčík, Peter; Holop, Patrik; Malinka, Kamil
Vysoké učení technické v Brně, 2024

Automaty ve verifikaci
Šmahlíková, Barbora; Holík, Lukáš; Lengál, Ondřej
2024 - English
Regular model checking is an automata-based technique used for verification of infinite-state systems. The configurations of a system are encoded as a finite automaton and transitions between these configurations as a finite transducer. A technique for verifying arbitrary properties of parameterized systems specified in a temporal logic LTL(MSO) has already been introduced. We present an extension of this algorithm allowing verification of hyperproperties of parameterized systems where an explicit quantification over multiple execution traces is allowed. We specify conditions that need to hold for a pair of advice bits (a finite automaton and a finite transducer) that serves as a witness of the fact that the property holds in the system. The technique presented in this work is implemented in our tool ParaHyper - the only existing tool for the verification of hyperproperties of parameterized systems. The tool uses a SAT solver to generate automata and transducers. If a pair satisfying the conditions for advice bits is found, the property holds in the system. We performed an experimental evaluation of our approach and found that ParaHyper is able to generate advice bits for formulae with an alphabet up to 4 symbols if both the automaton and the transducer have at most 2 states. When a candidate pair is given by the user, ParaHyper can, however, efficiently check if it satisfies the conditions for advice bits even for larger alphabets and greater number of states. Regulární model checking je technika pro verifikaci nekonečněstavových systémů založená na automatech. Konfigurace systému jsou dány konečným automatem a přechody mezi nimi konečným převodníkem. Algoritmus pro verifikaci libovolných vlastností parametrických systémů specifikovaných v temporální logice LTL(MSO) již existuje. V této práci představíme rozšíření tohoto algoritmu, které umožňuje verifikaci hypervlastností parametrických systémů, tedy vlastností, ve kterých lze explicitně kvantifikovat nad několika cestami v systému. Specifikujeme podmínky, které musí platit pro dvojici tzv. advice bitů (složené z konečného automatu a konečného převodníku), která slouží jako svěděk toho, že je daná vlastnost v systému splněna. Algoritmus představený v této práci je implementovaný v nástroji ParaHyper - jediném existujícím nástroji pro verifikaci hypervlastností parametrických systémů. Tento nástroj využívá SAT solveru pro generování automatů a převodníků. Pokud je nalezen takový pár, který vyhovuje podmínkám pro advice bity, vlastnost je v systému splněna. Bylo provedeno experimentální vyhodnocení představeného algoritmu a bylo zjištěno, že ParaHyper je schopen generovat advice bity pro formule s abecedou až o 4 symbolech, pokud mají automat i převodník nejvýše 2 stavy. Pokud jsou však automat i převodník zadány uživatelem, ParaHyper umí efektivně zkontrolovat, zda vyhovují podmínkám i v případě větších abeced a většího počtu stavů. Keywords: regular model checking; hyperproperties; automata; verification; parameterized systems; regulární model checking; hypervlastnosti; automaty; verifikace; parametrizované systémy Available in a digital repository NRGL
Automaty ve verifikaci

Regular model checking is an automata-based technique used for verification of infinite-state systems. The configurations of a system are encoded as a finite automaton and transitions between these ...

Šmahlíková, Barbora; Holík, Lukáš; Lengál, Ondřej
Vysoké učení technické v Brně, 2024

Material Characterization and Modeling of Interband Cascade Light Emitting Diodes
Herzánová, Kristína; Bastard, Gérald; Detz, Hermann
2024 - English
This thesis focuses on the material and loss characterization of heterostructures used in interband cascade devices and the modeling of interband cascade light-emitting devices (ICLEDs). Interband cascade devices, particularly lasers and light-emitting diodes, are critical for mid-infrared photonic applications due to their efficient operation and potential for integration into photonic circuits. The study involves extracting material parameters from spectroscopic ellipsometry and FTIR measurements, and extending an existing transport model to account for radiative recombination processes, specifically the spontaneous emission in ICLEDs. Among the different loss mechanisms in these devices, particular attention was given to the valence intersubband absorption, which degrades the operation of interband cascade devices in the mid-infrared wavelength region above 4 m. The results, obtained through experimental characterization of interband cascade laser (ICL) waveguides examining their transmission losses, demonstrated the impact of valence intersubband absorption under various operating conditions. This research contributes to the optimization of interband cascade structures, leading to enhanced performance and broader applicability in sensing, environmental monitoring, and biomedical diagnostics. Tato práce se zaměřuje na charakterizaci materiálů a ztrátových mechanismů heterostruktur používaných v mezipásových kaskádových zařízeních a na modelování mezi-pásových kaskádových elektroluminiscenčních diod (ICLED). Mezipásová kaskádová zařízení, zejména lasery a elektroluminiscenční diody, mají zásadní význam pro fotonické aplikace ve střední infračervené oblasti vzhledem k jejich efektivitě a možnosti integrace do fotonických obvodů. Studie zahrnuje extrakci materiálových parametrů ze spektroskopické elipsometrie a FTIR měření a rozšíření stávajícího transportního modelu o zářivé rekombinační procesy, konkrétně o spontánní emisi v ICLED. Z různých ztrátových mechanismů v těchto zařízeních byla zvláštní pozornost věnována valenční mezipásové absorpci, která zhoršuje výkon mezipámových kaskádových zařízení v oblasti středních infračervených vlnových délek nad 4 m. Výsledky získané na základě experimentální charakterizace vlnovodů tvořených mezipásovými kaskádovými lasery (ICL) zkoumající jejich přenosové ztráty prokázaly vliv valenční mezipásové absorpce za různých operativních podmínek. Tento výzkum přispívá k optimalizaci struktur mezi-pásových kaskádových struktur, která vede ke zvýšení výkonu a širší použitelnosti v oblasti detekce, monitorování životního prostředí a biomedicínské diagnostiky. Keywords: Interband Cascade Light Emitting Device (ICLED); Interband Cascade Laser (ICL); heterostructures; mid-infrared; material characterization; ellipsometry; spectroscopic techniques; waveguide characterization; valence intersubband absorption; recombination; spontaneous emission; Mezipásové kaskádové elektroluminiscenční zařízení; mezipásový kaskádový laser; heterostruktury; střední infračervená oblast; materiálová charakterizace; elipsometrie; spektroskopické techniky; charakterizace vlnovodu; valenční mezipásová absorpce; rekombinace; spontánní emise Available in a digital repository NRGL
Material Characterization and Modeling of Interband Cascade Light Emitting Diodes

This thesis focuses on the material and loss characterization of heterostructures used in interband cascade devices and the modeling of interband cascade light-emitting devices (ICLEDs). Interband ...

Herzánová, Kristína; Bastard, Gérald; Detz, Hermann
Vysoké učení technické v Brně, 2024

Interpretation of emotions from text on social media
Tlustoš, Vít; Košař, Vlastimil; Malik, Aamir Saeed
2024 - English
Most human interactions are either text-based or can be converted to text using speech-to-text technologies. This thesis is dedicated to recognizing emotions from these texts. Despite extensive research in this domain, three significant challenges persisted: unexplored or limited cross-domain efficacy of the methods, superficial analysis of the result, and limited usability of the outcomes. We address these challenges by proposing two models based on the RoBERTa model, which we call EmoMosaic-base and EmoMosaic-large. These models were trained on the following datasets: SemEval-2018 Task 1: Affect in Tweets, GoEmotions, XED, and DailyDialog datasets. In contrast to prior studies, we trained our models on all the datasets simultaneously while preserving their original categories. This resulted in models that exhibit strong performance across diverse domains and are directly comparable to other methods. In fact, EmoMosaic-large outperforms recent single-domain state-of-the-art models on SemEval-2018 Task 1: Affect in Tweets and GoEmotions datasets, demonstrating outstanding cross-domain performance. To promote the usability and reproducibility of our research, we make all our code and models public, available at: https://huggingface.co/vtlustos. Většina lidských interakcí probíhá buď prostřednictvím textu, nebo může být na text převedena pomocí speech-to-text technologií. Tato práce je věnována rozpoznávání emocí z takovýchto textů. Navzdory rozsáhlému výzkumu v této oblasti tři významné problémy přetrvávaly: neprozkoumaná nebo omezená účinnost metod napříč doménami, povrchní analýza výsledků a omezená použitelnost výstupů. Tyto výzvy řešíme navržením dvou modelů založených na modelu RoBERTa, které nazýváme EmoMosaic-base a EmoMosaic-large. Tyto modely byly trénovány na následujicích datasetech: SemEval-2018 Task 1:Affect in Tweets, GoEmotions, XED a DailyDialog. Na rozdíl od ostatních studií jsme naše modely trénovali na všech uvedených datasetech současně, přičemž jsme zachovali jejich původní kategorie. Výsledkem jsou modely, které dobře fungují napříč různými doménami a jsou přímo porovnatelné s ostatními metodami. Model EmoMosaic-large dokonce překonává nedávné jedno-doménové state-of-the-art modely na datasetech SemEval-2018 Task 1: Affect in Tweets a GoEmotions, což dokazuje jeho vynikající schopnosti napříč různými oblastmi. Pro zvýšení využitelnosti a reprodukovatelnosti našeho výzkumu poskytujeme veškerý kód a modely veřejně na: https://huggingface.co/vtlustos. Keywords: emotion classification from text; emotion recognition from text; cross-domain emotion recognition; GoEmotions; DailyDialog; XED; SemEval-2018 Task 1; klasifikace emocí z textu; rozpoznávání emocí z textu; rozpoznávání emocí napříč doménami; GoEmotions; DailyDialog; XED; SemEval-2018 Task 1 Available in a digital repository NRGL
Interpretation of emotions from text on social media

Most human interactions are either text-based or can be converted to text using speech-to-text technologies. This thesis is dedicated to recognizing emotions from these texts. Despite extensive ...

Tlustoš, Vít; Košař, Vlastimil; Malik, Aamir Saeed
Vysoké učení technické v Brně, 2024

Emotion Recognition from Analysis of a Person’s Speech using Deep Learning
Galba, Šimon; Kekely, Lukáš; Malik, Aamir Saeed
2024 - English
This thesis deals with the analysis and implementation of a neural network for the purpose of recognizing emotions from human speech using deep learning. The thesis also focuses on tuning this network to achieve greater sensitivity to a specific emotion and explores the time and indirectly the financial requirements of this tuning. The inspiration for creating this work is the increasing integration of artificial intelligence in the fields of biology, healthcare, as well as psychology, and one of the goals is also to study the complexity of creating specific models of neural networks for purposes in these sciences, which should contribute to better accessibility of artificial intelligence models. The work is based on the implementation of the "AST: Audio Spectrogram Transformer" model, which is publicly available under the BSD 3-Clause License and utilizes methods that have been used so far for classification and recognition of images by converting an audio track into a spectrogram. The resulting values of weighted accuracy are as follows: 93.5% for the EMODB dataset, 92.8% for EMOVO, and 92.9% for the RAVDESS dataset. Táto práca sa zaoberá analýzou a implementáciou neurónovej siete za účelom rozpoznávania emócií z reči človeka pomocou hlbokého učenia. Práca sa taktiež zaoberá ladením tejto siete za účelom dosiahnutia väčšej citlivosti voči konkrétnej emócii a skúma časové a nepriamo aj finančné nároky tohto ladenia. Inšpiráciou na vytvorenie tejto práce je stúpajúca integrácia umelej inteligencie v oblasti biológie, zdravotníctva ako aj psychológie a jedným z cieľov je aj skúmanie náročnosti vytvárať konkrétne modely neurónových sietí na účely v týchto vedách, čo by malo prispieť k lepšej dostupnosti modelov umenelej inteligencie. Práca stavia na základe implementácie modelu "AST: Audio Spectrogram Transformer" ktorá je verejne dostupná pod licenciou BSD 3-Clause License a využíva metódy ktoré boli doposiaľ využívané na klasifikáciu a rozpoznávanie obrazov vďaka premene zvukovej stopy na spektrogram. Výsledné hodnoty váženej presnosti sú následovné: 93.5% pre EMODB dataset, 92.8% pre EMOVO a 92,9% pre dataset RAVDESS. Keywords: deep learning; Audio Spectrogram Transformer; speech emotion recognition; speech signal processing; emotion classification; hluboké učení; Audio Spectrogram Transformer; rozpoznávání emocí z řeči; zpracování řečového signálu; klasifikace emocí Available in a digital repository NRGL
Emotion Recognition from Analysis of a Person’s Speech using Deep Learning

This thesis deals with the analysis and implementation of a neural network for the purpose of recognizing emotions from human speech using deep learning. The thesis also focuses on tuning this network ...

Galba, Šimon; Kekely, Lukáš; Malik, Aamir Saeed
Vysoké učení technické v Brně, 2024

Automatická komprese vah neuronových sítí
Lorinc, Marián; Sekanina, Lukáš; Mrázek, Vojtěch
2024 - English
Convolutional Neural Networks (CNNs) have revolutionised computer vision field since their introduction. By replacing weights with convolution filters containing trainable weights, CNNs significantly reduced memory usage. However, this reduction came at the cost of increased computational resource requirements, as convolution operations are more computation intensive. Despite this, memory usage remains more energy-intensive than computation. This thesis explores whether it is possible to avoid loading weights from memory and instead functionally calculate them, thereby saving energy. To test this hypothesis, a novel weight compression algorithm was developed using Cartesian Genetic Programming. This algorithm searches for the most optimal weight compression function, aiming to enhance energy efficiency without compromising the functionality of the neural network. Experiments conducted on the LeNet-5 and MobileNetV2 architectures demonstrated that the algorithm could effectively reduce energy consumption while maintaining high model accuracy. The results showed that certain layers could benefit from weight computation, validating the potential for energy-efficient neural network implementations. Konvolučné neurónové siete (CNN) od svojho vynájdenia zrevolucionizovali spôsob, akým sa realizujú úlohy z odvetvia počítačového videnia. Vynález CNN viedol k zníženiu pamäťovej náročnosti, keďže váhy boli nahradené konvolučnými filtrami obsahujúcimi menej trénovateľných váh. Avšak, toto zníženie bolo dosiahnuté na úkor zvýšenia požiadaviek na výpočtový výkon, ktorý je naviazaný na výpočet konvolúcie. Táto práca skúma hypotézu, či je možné sa vyhnúť načítavaniu váh a miesto toho ich vypočítať, čím sa ušetrí energia. Na otestovanie tejto hypotézy bol vyvinutý nový algoritmus kompresie váh využívajúci Kartézske genetické programovanie. Tento algoritmus hľadá najoptimálnejšiu funkciu kompresie váh s cieľom zvýšiť energetickú účinnosť. Experimenty vykonané na architektúrach LeNet-5 a MobileNetV2 ukázali, že algoritmus dokáže efektívne znížiť spotrebu energie pri zachovaní vysokej presnosti modelu. Výsledky ukázali, že určité vrstvy je možné doplniť vypočítanými váhami, čo potvrdzuje potenciál pre energeticky efektívne neurónové siete. Keywords: Convolutional Neural Networks; CNN; Evolutionary Algorithms; EA; Genetic Algorithms; GA; Cartesian Genetic Programming; CGP; Optimization; Compression; MobileNetV2; LeNet-5; Energy Efficiency; Weight Compression Algorithm; Deep Learning; Konvolučné neurónové siete; CNN; Evolučné algoritmy; EA; Genetické algoritmy; GA; Kartézske genetické programovanie; CGP; Optimalizácia; Kompresia; MobileNetV2; LeNet-5; Energetická účinnosť; Kompresia váh; Hlboké učenie Available in a digital repository NRGL
Automatická komprese vah neuronových sítí

Convolutional Neural Networks (CNNs) have revolutionised computer vision field since their introduction. By replacing weights with convolution filters containing trainable weights, CNNs significantly ...

Lorinc, Marián; Sekanina, Lukáš; Mrázek, Vojtěch
Vysoké učení technické v Brně, 2024

Návrh superskalárního RISC-V procesoru
Salvet, Dominik; Šimek, Václav; Jaroš, Jiří
2024 - English
This thesis deals with designing and implementing a superscalar RISC-V processor microarchitecture focused on environments with constrained resources. For that, the microarchitecture exposes a dual-issue seven-stage pipeline with in-order instruction execution. It is described in SystemVerilog and can be easily simulated on a computer. Using prepared tools, the created processor model runs RISC-V assembly programs compiled by GCC. Based on conducted testing without special compiler assistance, the processor executes 0.88 instructions per cycle on average, providing 22.6 % higher performance than its scalar counterpart. Considering that the microarchitecture also avoids unnecessary specialization, it provides a good base that can be further extended and optimized based on the profiling of expected programs, leading to optimal performance and use of resources. Tato práce se zabývá návrhem a implementací superskalární mikroarchitektury RISC-V procesoru zaměřené na prostředí s omezenými zdroji. Za tímto účelem mikroarchitektura definuje sedmistupňovou zřetězenou linku s dvojitým vydáváním instrukcí, které vykonává v pořadí. Je popsána v jazyce SystemVerilog a lze ji snadno simulovat na počítači. Pomocí připravených nástrojů pouští vytvořený model procesoru programy napsané v RISC-V jazyce symbolických adres zkompilované GCC. Na základě provedeného testování bez speciální asistence kompilátoru procesor provede v průměru 0,88 instrukcí za cyklus, čímž poskytuje o 22,6 % vyšší výkon než jeho skalární protějšek. Vzhledem k tomu, že se navržená mikroarchitektura také vyhýbá nadměrné specializaci, poskytuje dobrý základ, který lze dále rozšiřovat a optimalizovat na základě profilování očekávaných programů, což vede k optimálnímu výkonu a využití zdrojů. Keywords: Superscalar processor; RISC-V instruction set; instruction pipelining; in-order execution; dual-issue architecture; open-source hardware; SystemVerilog; simulation testbench; Superskalární procesor; instrukční sada RISC-V; zřetězené zpracování; vykonávání instrukcí v pořadí; dvojité vydávání instrukcí; otevřený hardware; SystemVerilog; simulační testbench Available in a digital repository NRGL
Návrh superskalárního RISC-V procesoru

This thesis deals with designing and implementing a superscalar RISC-V processor microarchitecture focused on environments with constrained resources. For that, the microarchitecture exposes a ...

Salvet, Dominik; Šimek, Václav; Jaroš, Jiří
Vysoké učení technické v Brně, 2024

Kryo-EM: Vliv EER formátu a super-rozlišení na výsledky SPA
Geršl, David; Dobrovský, Ladislav; Hůlka, Tomáš
2024 - English
Cryo-electron microscopy (cryo-EM) has emerged as a pivotal tool in structural biology, enabling the visualization of biological macromolecules at atomic resolutions under cryogenic conditions. This thesis explores the intricacies of image resolution and localization errors within cryo-EM, particularly focusing on their impact on Single Particle Analysis (SPA). The experimental sections delve into the effects of various image resolutions and the introduction of artificial localization errors through super-resolution imaging techniques. Key findings indicate that while higher resolutions enhance detail and structural clarity, they significantly increase computational demands. Additionally, localization errors introduced by super-resolution imaging can adversely affect the accuracy of motion correction and Contrast Transfer Function (CTF) estimations, critical for accurate 3D reconstructions. These insights highlight the delicate balance required in cryo-EM between achieving high resolution and maintaining image integrity, suggesting directions for future research and technological advancements in electron microscopy. Kryo-elektronová mikroskopie (cryo-EM) se stala zásadním nástrojem ve strukturální biologii, který umožňuje vizualizaci biologických makromolekul v atomovém rozlišení za kryogenních podmínek. Tato diplomová práce se věnuje zkoumání vlivu obrazového rozlišení a chyb lokalizace v rámci techniky cryo-EM, přičemž klade důraz na jejich dopad na analýzu jednotlivých částic (SPA). Práce je rozdělena do dvou hlavních experimentálních částí. První část zkoumá dopady různých obrazových rozlišení na procesy rekonstrukce v SPA. Zde bylo zjištěno, že zvýšení rozlišení obrazu vede k lepšímu detailu a strukturální jasnosti, avšak zároveň výrazně zvyšuje výpočetní nároky a komplexnost datového zpracování. Druhá experimentální část se zaměřuje na vliv uměle indukovaných chyb lokalizace, které jsou způsobeny použitím technik superrozlišení. Tyto chyby mají negativní vliv na přesnost korekce pohybu a odhady funkcí přenosu kontrastu (CTF), což jsou klíčové aspekty pro přesné 3D rekonstrukce v SPA. Zkoumání těchto dvou klíčových faktorů odhalilo, že i přes technologický pokrok v oblasti detektorů a zpracování obrazu, který umožnil dosáhnout rozlišení srovnatelného s X-ray krystalografií, stále existují výzvy spojené s potenciální optimalizací těchto procesů v praxi. Tyto výzvy zahrnují potřebu efektivnějšího využití výpočetních zdrojů a lepšího pochopení vlivu technických parametrů na kvalitu a přesnost výsledných rekonstrukcí. Výsledky této práce poskytují poznatky pro další vývoj v oblasti cryo-EM a otevírají možnosti pro zlepšení metod SPA, což může potenciálně vést k přesnějšímu a efektivnějšímu studiu komplexních biologických struktur. Tyto poznatky také naznačují směry pro budoucí výzkum a potenciál pro technologické inovace, které by mohly dále zlepšit schopnosti cryo-EM v oblasti strukturní biologie. Keywords: transmission electron microscopy; electron event representation; super-resolution; single particle analysis; cryo-EM; transmisní elektronová mikroskopie; electron event representation; superrozlišení; analýza jednotlivých částic; kryogenní elekotronová mikroskopie Available in a digital repository NRGL
Kryo-EM: Vliv EER formátu a super-rozlišení na výsledky SPA

Cryo-electron microscopy (cryo-EM) has emerged as a pivotal tool in structural biology, enabling the visualization of biological macromolecules at atomic resolutions under cryogenic conditions. This ...

Geršl, David; Dobrovský, Ladislav; Hůlka, Tomáš
Vysoké učení technické v Brně, 2024

Detekce přítomnosti nahoty v obrazových datech
Pešková, Daniela; Orság, Filip; Goldmann, Tomáš
2024 - English
The focus of this thesis is the creation of a tool capable of detecting nudity in image data. This is achieved by training a model to detect incriminated body parts and creating an algorithm capable of detecting skin. The resulting tools can be used for automatic nudity detection in images. The first part of the thesis focuses on the theory of neural networks and computer vision, with an emphasis on skin detection. The second part discusses the approach chosen for creating the dataset, the process of creation and training the model capable of detecting nudity in images, as well as the algorithmic approach. Zameranie tejto práce je vytvorenie nástroja schopného detekovať nahotu v obrazových dátach. To je dosiahnuté natrénovaním modelu na detekciu inkriminovaných častí tela a vytvorením algoritmu schopného detekovať pokožku. Výsledné nástroje môžu byť použité pre automatickú detekciu nahoty v obrázkoch. Prvá časť práce sa zameriava na teóriu neurónových sietí a počítačového videnia so zameraním na detekciu pokožky. Druhá časť hovorí o prístupe zvolenom pre vytvorenie datasetu, procese tvorby a trénovania modelu schopného detekovať nahotu v obraze, ako aj o algoritmickom prístupe. Keywords: Nudity Detection; Pornografic Detection; Skeleton Detection; Convolutional Neural Networks; Deep Learning; Data Extraction; Computer Vision; Skin Detection.; Detekcia Nahoty; Detekcia Pornografie; Detekcia Ľudskej Kostry; Konvolučné Neurónové Siete; Hlboké Učenie; Extrakcia Dát; Počítačové videnie; Detekcia pokožky. Available in a digital repository NRGL
Detekce přítomnosti nahoty v obrazových datech

The focus of this thesis is the creation of a tool capable of detecting nudity in image data. This is achieved by training a model to detect incriminated body parts and creating an algorithm capable ...

Pešková, Daniela; Orság, Filip; Goldmann, Tomáš
Vysoké učení technické v Brně, 2024

About project

NRGL provides central access to information on grey literature produced in the Czech Republic in the fields of science, research and education. You can find more information about grey literature and NRGL at service web

Send your suggestions and comments to nusl@techlib.cz

Provider

http://www.techlib.cz

Facebook

Other bases