Number of found documents: 1726
Published from to

Detekce a klasifikace vozidel pro vestavěné platformy
Skaloš, Patrik; Hradiš, Michal; Špaňhel, Jakub
2023 - English
Táto práca hodnotí kompromisy rýchlosti a presnosti najmodernejších detektorov objektov YOLOv8 pre detekciu vozidiel v snímkoch z monitorovacích kamier na vstatných a nízkovýkonných zariadeniach. Modely YOLOv8 rôznych veľkostí, vrátane jedného s efektívnou sieťou MobileNetV2 na extrakciu príznakov a modelu YOLOv8-femto s menej ako \num{60000} parametrami, boli testované na šiestich zariadeniach, vrátane troch vstavaných platforiem z rodiny NVIDIA Jetson a počítačom Raspberry Pi 4B s nízkou výpočtovou silou. V práci boli zohľadnené rôzne faktory ovplyvňujúce výkonnosť modelov, ako napríklad ich kvantizácia, rozlíšenia vstupu, inferenčné knižnice a veľkosti dávok počas inferencie. Táto štúdia poskytuje užitočné informácie k vývoju a nasadeniu detektorov vozidiel na širokú škálu zariadení, od nízkovýkonných procesorov po špecializované vstavané platformy. This paper evaluates the performance trade-offs of state-of-the-art YOLOv8 object detectors for vehicle detection in surveillance-type images on embedded and low-performance devices. YOLOv8 models of varying sizes, including one with the lightweight MobileNetV2 backbone and YOLOv8-femto with fewer than \num{60000} parameters, were benchmarked across six devices, including three NVIDIA Jetson embedded platforms and the low-performance Raspberry Pi 4B. Various factors influencing performance were considered, such as weight quantization, input resolutions, inference backends, and batch sizes during inference. This study provides valuable insights into the development and deployment of vehicle detectors on a diverse range of devices, including low-performance CPUs and specialized embedded platforms. Keywords: vehicle detection; traffic surveillance; object detection; convolutional neural networks; real-time; trade-offs; embedded devices; low-performance devices; YOLO; YOLOv8; NVIDIA Jetson; Raspberry Pi; OpenMMLab; MMYOLO; quantization; ONNX Runtime; TensorRT; detekcia vozidiel; monitorovanie dopravy; detekcia objektov; konvolučné neurónové siete; detekcia v reálnom čase; kompromisy; vstavané zariadenia; nízkovýkonné zariadenia; YOLO; YOLOv8; NVIDIA Jetson; Raspberry Pi; OpenMMLab; MMYOLO; kvantizácia; ONNX Runtime; TensorRT Available in a digital repository NRGL
Detekce a klasifikace vozidel pro vestavěné platformy

Táto práca hodnotí kompromisy rýchlosti a presnosti najmodernejších detektorov objektov YOLOv8 pre detekciu vozidiel v snímkoch z monitorovacích kamier na vstatných a nízkovýkonných zariadeniach. ...

Skaloš, Patrik; Hradiš, Michal; Špaňhel, Jakub
Vysoké učení technické v Brně, 2023

Správa distribuovaného výpočetního systému
Bůbela, Vojtěch; Olšák, Ondřej; Jaroš, Jiří
2023 - English
Hlavním cílem této práce je vystavět a spravovat distrubuovaný výpočetní sýstém. Dalším cílem je zajistit správné přiřazení výpočetních zdrojů clusteru a zajištění, že úloha uživatele nepřesáhne své přiřazené zdroje. Zvolený problém jsem řešil instalací a konfigurací jednoho z jichž existujících plánovačů úloh na několik výpočetních uzlů a jeden řídící uzel. Z existujících řešení jsem vybral a porovnal dva plánovače úloh, Slurm a PBS. Vytvořil jsem cluster z virtuálních počítačů a oba plánovače jsem na něj nainstaloval. Po zvážení jsem vybral plánovač Slurm. Ten jsem pak nainstaloval na 3 raspberry pi počítače a nakonfiguroval dodatečné funkce. Po zajištění základní funkcionality jsem nakonfiguroval správu přiřazovaných zdrojů na clusteru a vytvořil sadu testovacích úloh na ověřění mého řešení. Výsledkem mé práce je distribuovaný výpočetní systém s konfogirací, která splňuje požadavky zadání. The main goal of my bachelors thesis is to build and manage a distributed computing cluster. The secondary goal is to ensure that the resource of the cluster are assigned correctly and that a job submitted by the user cannot consume more resources than it was given. I solved this problem by installing and configuring a task scheduler software on multiple compute nodes and one head node. When choosing the task scheduler I considered Slurm and PBS. I compared these two by installing and configuring them on a virtual machine cluster. After consideration i decided to go with the Slurm task scheduler. I installed it on 3 raspberry pi 3B computers using ansible and configured basic functionality. The next step was to configure correct assignment and control of resources and create set of tasks that could demonstrate that I managed to meet the goals of my thesis. The result of my thesis is a distributed computing cluster with a configuration that satisfies the main goal of my thesis. The secondary goal was also met fully. Keywords: distributed computation cluster; high performance computing; task scheduler; distribuovaný výpočetní systém; vysoce výkonné počítání; plánovač úloh Available in a digital repository NRGL
Správa distribuovaného výpočetního systému

Hlavním cílem této práce je vystavět a spravovat distrubuovaný výpočetní sýstém. Dalším cílem je zajistit správné přiřazení výpočetních zdrojů clusteru a zajištění, že úloha uživatele nepřesáhne své ...

Bůbela, Vojtěch; Olšák, Ondřej; Jaroš, Jiří
Vysoké učení technické v Brně, 2023

Artefacts Removal from Brain EEG Signals Using Adaptive Algorithms
Hatala, Juraj; Jawed, Soyiba; Shakil, Sadia
2023 - English
Tato práce se zabývá problémem artefaktů ve záznamech elektroencefalografie (EEG) a metodami jejich odstranění s důrazem na adaptivní filtrace. Artefakty jsou neodmys- litelnou součástí metody EEG a negativně ovlivňují analýzu výsledků tím, že překrývají zájmové mozkové signály. Adaptivní filtrace je všestrannou metodou, kterou lze použít pro odstranění těchto artefaktů, pokud je k dispozici referenční signál korelovaný s arte- faktem. Hlavním cílem této práce je návrh a implementace frameworku, který umožní aplikaci metod adaptivní filtrace na EEG data. Druhotným cílem je posouzení účinnosti nového algoritmu Q-LMS při odstraňování artefaktů z EEG, protože dosud nebyl v tomto scénáři použit. Práce představuje knihovnu v prostředí Python pro adaptivní filtrace EEG a ukazuje a hodnotí experimenty pro scénáře odstraňování artefaktů s použitím Q-LMS fil- tru implementovaného v navržené knihovně. V této knihovně je uživatel schopen vytvářet přizpůsobitelné filtrační pipeliny. Knihovna nabízí různé adaptivní filtry a metody vytváření referenčního signálu s důrazem na zpracování neurologických dat ve formátu BIDS. Uži- vatel však může sdílet vlastní filtry s frameworkem a také používat vlastní vstupní data a referenční signály. Experimenty s Q-LMS algoritmem ukázaly, že se jedná o dobře fun- gující adaptivní algoritmus, avšak výsledky filtrace byly průměrný ve srovnání s výsledky dosaženými jinými standardními adaptivními algoritmy This thesis covers the problem of artifacts in electroencephalography (EEG) data and the methods used to remove them with a focus on adaptive filtering. Artifacts are an unavoid- able part of the EEG method and they have a negative impact on the analysis of the results by covering the brain signals of interest. Adaptive filtering is a versatile method that can be used for removal of these artifacts if the reference signal correlated with the artifact is pro- vided. The primary goal of this thesis is a proposal and implementation of the framework that can be used to apply methods of adaptive filtering on EEG data. The secondary goal is to examine the effectiveness of a novel Q-LMS algorithm on the task of removal of artifacts from EEG as it was not yet used in this scenario. The work is introducing a library in a Python environment for EEG adaptive filtering and shows and evaluates experiments for EEG artifact removal scenarios with a Q-LMS filter implemented in the proposed library. In this library, a user is able to construct customizable filtering pipelines. The library of- fers a variety of adaptive filters and reference-building methods with a focus on processing neurological data in BIDS format. However, the user is able to share his custom filters with the framework as well as use his own input data and reference signals. The experiments with Q-LMS showed that it is a well-functioning adaptive algorithm yet the filtering results were moderate in contrast to results obtained by other standard adaptive algorithms. Keywords: EEG; electroencephalography; adaptive filtering; adaptive algorithm; noise cancelation; EEG artifact; neurology; Python framework; LMS; Q-LMS; reference signal; RLS; human speech signal; cascade filtering; signal processing; EMG; ECG; EOG; EEG; elektroencefalografie; adaptivní filtrace; adaptivní algoritmus; potlačení šumu; EEG artefakt; neurologie; Python framework; LMS; Q-LMS; referenční signál; RLS; signál lidské řeči; kaskádová filtrace; zpracování signálů; EMG; EKG; EOG Available in a digital repository NRGL
Artefacts Removal from Brain EEG Signals Using Adaptive Algorithms

Tato práce se zabývá problémem artefaktů ve záznamech elektroencefalografie (EEG) a metodami jejich odstranění s důrazem na adaptivní filtrace. Artefakty jsou neodmys- litelnou součástí metody EEG a ...

Hatala, Juraj; Jawed, Soyiba; Shakil, Sadia
Vysoké učení technické v Brně, 2023

Hluboké neuronové sítě pro sešívání obrázků
Držíková, Diana Maxima; Vaško, Marek; Španěl, Michal
2023 - English
Zošívanie obrázkov nie je taký neznámy pojem ako sa na prvý pohľad môže zdať. Určite každý bežný používateľ technológií sa už zozámil s pojmom panoramatický obrázok. V pozadí na zariadení sa prekrývajúce sa obrázky zošívajú a tým vzniká vysoko kvalitný obrázok. Na to aby tento proces fungoval, existujúce algorimy musia spoľahlivo a presne detekovať zaujímavé body, podľa ktorých sa dokáže obrázok správne umiesniť. V tejto práci budú predstavené tradičné metódy na zošívanie obrázkov a taktiež aj metódy s pomocou hlbokých neurónových sietí. Hlavné dva modely, ktoré budú opísane a použíté sú implementácie SuperPoint a SuperGlue. Implementácia bude adaptovaná na párovací systém pre viac ako dva obrázky. Ostatné experimenty, ktoré boli vyskúšané a dopomohli k pochopeniu tejto problematiky budú opísane a vyhodnotené. Stitching digital images is not something unfamiliar to the average technology user. The most common example of stitching can be found in panoramic images, where the algorithm stitches them to achieve a seamless, high-quality picture. Various steps need to be executed to stitch the images. Feature detection, description, and matching play the most important role in achieving the goal. This thesis will dwell deeper into the stitching problematic and will discuss the possible solutions. The traditional approaches to stitching will be explained in order to understand the basic idea behind it. Later on, the neural networks will be used to enhance the feature processing. The SuperPoint and SuperGlue neural networks will be discussed and used for their experiments. The main product of this work is a matching algorithm which uses the SuperPoint and SuperGlue models to stitch the images from grids. Other experiments which helped the process of understanding this problem, will be explained and evaluated. Keywords: deep learning; deep neural networks; convolutional neural networks; image stitching; methods of image stitching; graph neural networks; SuperPoint; SuperGlue; SIFT; homography estimation; hlboké učenie; hlboké neurónové siete; konvolučné neurónové siete; zošívanie obrázkov; metódy zošívania obrázkov; grafové neurónové siete; SuperPoint; SuperGlue; SIFT; estimácia homografie medzi obrázkami Available in a digital repository NRGL
Hluboké neuronové sítě pro sešívání obrázků

Zošívanie obrázkov nie je taký neznámy pojem ako sa na prvý pohľad môže zdať. Určite každý bežný používateľ technológií sa už zozámil s pojmom panoramatický obrázok. V pozadí na zariadení sa ...

Držíková, Diana Maxima; Vaško, Marek; Španěl, Michal
Vysoké učení technické v Brně, 2023

Plugin pro analýzu rizik v kódu
Kvasnička, Jaroslav; Lengál, Ondřej; Havlena, Vojtěch
2023 - English
Tato práce se zabývá významem analýzy a testování kódu a jeho dopadem na funkčnost a náklady programu. Pojednává o základních principech a typech testování se zaměřením na statickou analýzu. Zkoumá také platformu Eclipse a zásuvné moduly a architekturu cílového kódu. Dále jsme probrali a implementovali rozšíření statického analyzátoru MFB, který byl vyvinut společností BOC-GROUP, spolu s rozšířeními, jako je kontrola Log4j a analyzátor GDPR. Navrhli jsme a implementovali také zásuvný modul pro Eclipse, který dokáže zvýraznit výsledky analyzátoru MFB v prostředí Eclipse IDE. V závěru jsou také diskutována možná budoucí rozšíření, včetně detektorů škodlivých regulárních výrazů a prevence XSS. This thesis explores the importance of code analysis and testing and its impact on program functionality and cost. It discusses the basic principles and types of testing, with a focus on static analysis. The Eclipse platform and plugins are also examined, along with the architecture of the target code. We then discussed and implemented an extension of the static MFB analyzer which the BOC-GROUP company developed along with extensions such as the Log4j checker and GDPR analyzer. We also designed and implemented the Eclipse plugin which can highlight the results of the MFB analyzer in the Eclipse IDE. In conclusion, future possible extensions are also discussed, including harmful regular expression detectors and XSS prevention. Keywords: Static Analysis; Eclipse; Plugin; Whitebox testing; False positive; Statická analýza; Eclipse; Plugin; testování bílé skříňky; falešně pozitivní Available in a digital repository NRGL
Plugin pro analýzu rizik v kódu

Tato práce se zabývá významem analýzy a testování kódu a jeho dopadem na funkčnost a náklady programu. Pojednává o základních principech a typech testování se zaměřením na statickou analýzu. Zkoumá ...

Kvasnička, Jaroslav; Lengál, Ondřej; Havlena, Vojtěch
Vysoké učení technické v Brně, 2023

Analýza spotřeby zdrojů v programech
Míchal, Ondřej; Fiedor, Jan; Pavela, Jiří
2023 - English
Spotřeba softwarových zdrojů je široce a aktivně zkoumanou oblastí. Z mnoha zdrojů v softwaru, které lze profilovat, byla spotřeba energie dlouho jediným zdrojem, který neměl mnoho obecných, a přesto komplexních, profilerů. V době mobilních zařízení a výkonných výpočetních jednotek je poptávka po takových profilerech neustále rostoucí. V této práci zkoumáme metody pro přesné měření spotřeby energie softwaru. Na jejich základě vytváříme open-source profiler a implementujeme komplexní vizualizér profilovaných dat. S vytvořeným profilerem pak provádíme řadu experimentů, abychom předvedli jeho schopnosti a demonstrovali užitečnost měření spotřeby energie softwaru. Software resource consumption is a widely and actively researched area. Of the many resources utilized by software which can be profiled, energy consumption has long been the one resource without many generic, and yet comprehensive profilers. In the age of mobile devices and efficient processing units the need for such profiles is continuously increasing. In this work, we research methods for accurate measurement of energy consumption of software based on them create an open-source profiler and implement a comprehensive visualizer of the profiled data. Using the developed profiler we conduct a number of experiments to showcase its capabilities and demonstrate the usefulness of measuring software energy consumption. Keywords: perun; energy consumption; profiling; version control system; vcs; ebpf; rapl; perf; system calls; perun; spotřeba energie; profilování; verzovací systém; vcs; ebpf; rapl; perf; systemová volání Available in a digital repository NRGL
Analýza spotřeby zdrojů v programech

Spotřeba softwarových zdrojů je široce a aktivně zkoumanou oblastí. Z mnoha zdrojů v softwaru, které lze profilovat, byla spotřeba energie dlouho jediným zdrojem, který neměl mnoho obecných, a přesto ...

Míchal, Ondřej; Fiedor, Jan; Pavela, Jiří
Vysoké učení technické v Brně, 2023

Bilingual Dictionary Based Neural Machine Translation
Tikhonov, Maksim; Beneš, Karel; Kesiraju, Santosh
2023 - English
Vývoj v oblasti strojového překladu v posledních několika letech ukázal, že moderní neuronové systémy strojového překladu jsou schopny poskytovat výsledky vynikající kvality. Pro získání takového systému je však zapotřebí velké množství paralelních trénovacích dat, která nejsou pro většinu jazyků k dispozici. Jedním ze způsobů zlepšení kvality strojového překladu pro low-resource jazyky je augmentace dat. Tato práce zkoumá úlohu neuronového strojového překladu založeného na bilingválních slovnících, jejíž základem je použití augmentační techniky umožňující generování zašuměných dat na základě bilingválních slovníků. Mým cílem bylo prozkoumat možnosti systémů založených na této metodě na různých jazykových párech a za různých výchozích podmínek a následně porovnat získané výsledky s výsledky tradičních neuronových systémů strojového překladu. The development in the recent few years in the field of machine translation showed us that modern neural machine translation systems are capable of providing results of outstanding quality. However, in order to obtain such a system, one requires an abundant amount of parallel training data, which is not available for most languages. One of the ways to improve the quality of machine translation of low-resource languages is data augmentation. This work investigates the task of Bilingual dictionary-based neural machine translation (BDBNMT), the basis of which is the use of the augmentation technique that allows the generation of noised data based on bilingual dictionaries. My aim was to explore the capabilities of BDBNMT systems on different language pairs and under different initial conditions and then compare the obtained results with those of traditional neural machine translation systems. Keywords: Artificial intelligence; natural language processing; machine translation; neural machine translation; bilingual dictionaries; bilingual dictionary based neural machine translation; low-resource machine translation; training; Umělá inteligence; zpracování přirozeného jazyka; strojový překlad; neurální strojový překlad; bilingvální slovníky; neurální strojový překlad založený na bilingválních slovnících; low-resource strojový překlad; trénování Available in a digital repository NRGL
Bilingual Dictionary Based Neural Machine Translation

Vývoj v oblasti strojového překladu v posledních několika letech ukázal, že moderní neuronové systémy strojového překladu jsou schopny poskytovat výsledky vynikající kvality. Pro získání takového ...

Tikhonov, Maksim; Beneš, Karel; Kesiraju, Santosh
Vysoké učení technické v Brně, 2023

Monitoring životních funkcí
Kratochvíl, Pavel; Mrázek, Vojtěch; Vašíček, Zdeněk
2023 - English
Cieľom tejto práce je navrhnúť dizajn, implementovať prototyp a evaluovať funkčnosť systému pre monitorovanie životných funkcií. Navrhnuté riešienie je založené na Bluetooth Low Energy Mesh sieti, v ktorej sa nachádzajú zariadenia štyroch typov: batériou napájané nositeľné monitorovacie zariadenie zbierajúce fotopletysmografické dáta zo senzora a rozosielajúce extrahované informácie o frekvencii srdcového tepu a periférneho okysličenia subjektu do mesh siete; zariadenia preposielajúceho dáta v sieti (relay node); nosného zariadenia konfigurujúceho mesh sieť pri jej inicializácii (provisioner node) a koncového zariadenia, ktoré odosiela dáta prijaté v mesh sieti pomocou protokolu MQTT na internet. Batériou napájané monitorovacie zariadenia sú implementované na module nRF52833 od firmy Nordic Semiconductor, zatiaľ čo koncové zariadenia komunikujúce cez MQTT protokol využívajú ESP32 moduly od firmy Espressif. Analýza zozbieraných PPG dát je dosiahnutá dvojitou filtráciou (spredu a zozadu) pomocou Chebyshev II band-pass filtra štvrtého rádu, následovanou vyhladením dát s použitím kĺzavého priemeru a extrakciou indikátorov životných funkcií algoritmom s jediným priechodom v nazbieraných vzorkách. Vďaka výbornej energetickej úspornosti zariadení a minimálnej vyžadovanej infraštruktúre predstavuje navrhnutý systém vhodné riešenie pre zdravotnícke zariadenia s obmedzenými finančnými zdrojmi. The aim of this project is to design, implement and evaluate a vital signs monitoring system. The proposed solution is a Bluetooth Low Energy Mesh connected system that consists of four types of nodes: battery powered wearable monitoring devices collecting photoplethysmographic (PPG) data, transmitting heart rate (HR) and peripheral oxygen saturation (SpO\textsubscript{2}) information; relay nodes retransmitting the data; provisioning nodes configuring the mesh network, and end nodes publishing the collected data via an MQTT protocol. The battery powered nodes and relay nodes are implemented on nRF52 series modules by Nordic Semiconductor, while the end nodes utilize ESP32 modules made by Espressif. Analysis of the collected PPG data is achieved by forward-backward filtering using a fourth-order Chebyshev II band-pass filter, followed by smoothing using the moving average algorithm, and extraction of vital signs indicators using a custom implementation of a peak detection algorithm with a single data pass-through. With its minimal requirements on both energy supply and supporting infrastructure, the system presents a convenient solution that could be especially compelling to medical facilities with limited funding. Keywords: microcontroller; wearable; Bluetooth; Bluetooth Low Energy; mesh; photoplethysmography; PPG; IoT; mikrokontrolér; nositelná zařízení; Bluetooth; Bluetooth Low Energy; mesh; fotopletysmografia; PPG; IoT Available in a digital repository NRGL
Monitoring životních funkcí

Cieľom tejto práce je navrhnúť dizajn, implementovať prototyp a evaluovať funkčnosť systému pre monitorovanie životných funkcií. Navrhnuté riešienie je založené na Bluetooth Low Energy Mesh sieti, v ...

Kratochvíl, Pavel; Mrázek, Vojtěch; Vašíček, Zdeněk
Vysoké učení technické v Brně, 2023

Využití zpětnovazebného učení pro automatickou alokaci akciového portfolia
Lapeš, Zdeněk; Andriushchenko, Roman; Češka, Milan
2023 - English
Tato práce je zaměřena na téma posilovacího učení aplikovaného na úlohu alokace portfolia. K dosažení tohoto cíle práce nejprve uvádí přehled základní teorie, která zahrnuje nejnovější metody založené na hodnotách a politikách. Následně je v práci popsáno prostředí port- folia Stock a nakonec jsou uvedeny podrobnosti o experimentu a implementaci. Podrobně je rozebrána tvorba datových souborů a její zdůvodnění a metodika. RL agent je poté vy- cvičen a otestován na třech datových sadách a získané výsledky jsou slibné a překonávají běžné benchmarky. Bylo však zjištěno, že roční výnos agenta stále není lepší než výnosy generované nejlepšími světovými investory. Pipeline byla implementována v jazyce Python 3.10 a ke sledování všech datových sad, modelů a hyperparametrů byla použita technologie Weights & Biases. Závěrem lze říci, že tato práce představuje významný krok vpřed ve vývoji efektivnějších RL agentů pro finanční investice, kteří mají potenciál překonat i výkonnost nejlepších světových investorů. This thesis is focused on the topic of reinforcement learning applied to a task of portfolio allocation. To accomplish this objective, the thesis first presents an overview of the fundamental theory, which includes the latest value-based and policy-based methods. Following that, the thesis describes the Stock portfolio environment, and finally, the experimental and implementation details are presented. The creation of datasets is discussed in detail, along with the rationale and methodology behind it. The RL agent is then trained and tested on three datasets, and the results obtained are promising and outperform common benchmarks. However, it was discovered that the annual return of the agent is still not better than the returns generated by the world’s top investors. The pipeline was implemented in Python 3.10, and technology from Weights & Biases was used to monitor all datasets, models, and hyperparameters. In conclusion, this work represents a significant step forward in the development of more effective RL agents for financial investments, with the potential to exceed even the performance of the world’s greatest investors. Keywords: artificial intelligence; reinforcement learning; actor-critic; neural networks; stock portfolio allocation; portfolio allocation theory; stock market; umělá inteligence; posilované učení; aktor-kritik; neuronové sítě; alokace akciového portfolia; teorie alokace portfolia; akciový trh Available in a digital repository NRGL
Využití zpětnovazebného učení pro automatickou alokaci akciového portfolia

Tato práce je zaměřena na téma posilovacího učení aplikovaného na úlohu alokace portfolia. K dosažení tohoto cíle práce nejprve uvádí přehled základní teorie, která zahrnuje nejnovější metody založené ...

Lapeš, Zdeněk; Andriushchenko, Roman; Češka, Milan
Vysoké učení technické v Brně, 2023

Metody vizualizace a simulace těles sluneční soustavy
Hýroš, Andrej; Hanák, Jiří; Novák, Jiří
2023 - English
Táto práca sa zaoberá vývojom programu na simuláciu a vizualizáciu pohybu n telies podľa Newtonových zákonov. Vstupom je zoznam telies a ich počiatočné podmienky. Po dokončení simulácie je vzájomný pohyb telies celého systému animovaný v programe s grafickým užívateľským rozhraním a je uložený súbor s priebehom simulácie. Počas simulácie sú riešené diferenciálne rovnice prvého rádu. V práci boli implementované viaceré algoritmy numerickej integrácie, ktoré umožňujú používateľovi zvoliť si vhodný algoritmus pre potreby jeho simulácie a dosiahnuť tak optimálny priebeh simulácie. Program bol prehlásený ako validný po porovnaní výstupu programu s dátami od NASA. The aim of this thesis is to create program for simulating and visualizing the motion of n bodies according to Newton's laws. The input consists of a list of bodies and their initial conditions. After completing the simulation, the motion of individual objects of the entire system is animated in application with graphical user interface, and a file containing positions of simulated system is saved. During the simulation, first-order differential equations are solved. Various numerical integration algorithms were implemented in the program, which allows the user to choose a suitable algorithm for their simulation needs and achieve optimal simulation results. The program has been validated by comparing its output with data from NASA. Keywords: simulation; visualization; n-body problem; orbital mechanics; Newton's Laws; Kepler's Laws; Solar system; numerical methods; simulácia; vizualizácia; problém n telies; orbitálna mechanika; Newtonove pohybové zákony; Keplerove zákony; Slnečná sústava; numerické metódy Available in a digital repository NRGL
Metody vizualizace a simulace těles sluneční soustavy

Táto práca sa zaoberá vývojom programu na simuláciu a vizualizáciu pohybu n telies podľa Newtonových zákonov. Vstupom je zoznam telies a ich počiatočné podmienky. Po dokončení simulácie je vzájomný ...

Hýroš, Andrej; Hanák, Jiří; Novák, Jiří
Vysoké učení technické v Brně, 2023

About project

NRGL provides central access to information on grey literature produced in the Czech Republic in the fields of science, research and education. You can find more information about grey literature and NRGL at service web

Send your suggestions and comments to nusl@techlib.cz

Provider

http://www.techlib.cz

Facebook

Other bases