Alkalmazásiterület-specifikus nagy megbízhatóságú informatikai megoldások

Autonóm rendszerek/Autonomous Systems

A kutatócsoport vezetője: Csetverikov Dmitrij, egyetemi tanár, Algoritmusok és Alkalmazásaik Tanszék, Informatikai Kar

Hiba-, változás- és újdonság-detektálás

Sok területen, beleértve az autonóm rendszereket és az ipari minőség-ellenőrzést, szükség van a megszokott modelltől eltérő jelenségek észlelésére. Ide tartozik a szokatlan viselkedés, a változás, az újdonság vagy a hiba. Az esetek jelentős részében az ilyen „anomáliákat” nehéz pontosan leírni és betanítani, de ennek ellenére észre kell venni, mert megjelenésük kritikus lehet. Csoportunk olyan módszerek kidolgozásával foglalkozik, amelyek lehetővé teszik a gyors és hatékony hibadetektálást. Létrehoztunk egy palackcímke-vizsgáló programrendszert, amely kiszűri a hibás címkéket. Dolgozunk az új textúrás képi jellemzők bevezetésén és felületi hibadetektálásra való alkalmazásukon, valamint a 3D-s mérések esetén alkalmazható, mélytanulást elősegítő over-sampling módszerek kifejlesztésén. (Csetverikov Dmitrij, Informatikai Kar, Algoritmusok és Alkalmazásaik Tanszék)

Defect, change and novelty detection

Many application areas, including autonomous systems and industrial inspection, need detection of deviations from a conventional model. Examples are an abnormal behavior, a change, a novelty, or a defect. Often, such “anomalies” are hard to precisely describe and learn in advance. Still, they must be detected since their presence can be critical. Our group is developing methods and tools for fast and effective defect detection. We have developed a software system for inspecting flask labels that detects defective labels. We are working on new image texture features that can be used for surface defect detection. Another activity of the group is the development and testing of novel over-sampling techniques to facilitate deep learning for measurements in three and higher dimensions. (Dmitrij Csetverikov, Faculty of Informatics, Department of Algorithms and their Applications)


Affin transzformációk alkalmazása a háromdimenziós számítógépes látásban

A számítógépes képfeldolgozás és látás az informatika egyik legnehezebb problémája, hiszen rengeteg adatot kell az algoritmusoknak kivárható időn belül feldolgozni. Napjainkban a GPU-t alkalmazó gépek számítási sebessége elérte azt a szintet, hogy már valós időben lehet komplex látó eljárásokat futtatni. Munkánk célja a háromdimenziós látás alapvető algoritmusainak kiterjesztése affin transzformációk alkalmazásával. A hagyományos módszerek a képeken pontokat határoznak meg, és ebből számítják a térbeli információt, a  ELTE-n folyó kutatási munkák során az alakzatok formáinak megváltozását is figyelembe vesszük, ezzel pontosabb rekonstrukciót elérve. A kidolgozott eljárásokat járműre rögzített kamerák képeinek feldolgozására alkalmazzuk, a fő alkalmazási terület önvezető járművek látó rendszereinek javítása. Foglalkozunk a járművek mozgásának kiszámításával (vizuális odometria), síkok detektálásával, illetve maguknak az affin transzformációknak a pontos becslésével. (Hajder Levente, Informatikai Kar, Algoritmusok és Alkalmazásaik Tanszék)

Application of Affine Transformations for 3D Computer Vision

Development of computer vision algorithms is one of the most challenging areas of computer science as a huge amount of data should be processed. Nowadays, complex computer vision algorithms can be run in real time due to the extreme power of Graphical Processing Units (GPUs). The main purpose of our research is to extend 3D vision methods by applying affine transformations. Classical vision algorithms exploit only point correspondences in the images, and spatial data are computed from the locations of those. We consider the shape of the pattern in the images, calculate the affine transformations and then more accurate 3D reconstruction can be computed. (Levente Hajder, Faculty of Informatics, Department of Algorithms and their Applications)


Optimalizáció a forgácsolás előkészítésében 

A gazdaság egyik fő motorja az ipari termelés. A magasan képzett munkaerő hiánya okozta veszély csökkenthető, ha a feladatok egy részét számítógépen futó algoritmusok végzik el. Biztosítani kell, hogy a gyártási folyamathoz tartozó mérnöki döntéseket digitális környezetbe átültessük. Továbbá a jelenlegi gyártórendszereink átalakítását úgy, hogy a szenzorok a szükséges információt a hálózaton továbbítsák. Az optimalizálás dinamikusan igazítható a cég igényéhez, mint például maximális kapacitás, minimális költség, vagy a munkavállalók túlterhelésének elkerülése. Munkánk kapcsán létrehoztunk mintamegoldásokat különböző szinteken a forgácsolás előkészítésével kapcsolatban. CNC programozás könnyebbé vált célszoftver segítségével, vagy automatikus paraméter kitöltéssel CAM szoftver használatakor. Kidolgoztuk a posztprocesszor fejlesztésének módszertanát kiber-fizikai rendszerben. (Andó Mátyás, Informatikai Kar, Savaria Műszaki Intézet)

Optimization in pre-processing of machining

Industrial production is one of the main engines of the economy. The risk of a highly skilled workforce shortage can be reduced if some of the tasks are performed by computer-running algorithms. It is necessary to ensure that engineering decisions in the manufacturing process are transposed into a digital environment. Furthermore, the current production systems should develop to be able to transmit the necessary information over the network to the central computer. Optimization can be dynamically adapted to the company's current economic needs, such as maximum capacity, minimum cost, or avoidance of employee overload. We created good practice solution in different levels. Current work are done related to pre-processing of machining. CNC programing can be easier for target software or automated parameter section with CAM. We create the possibility for postprocessor development in Cyber-Physical System. (Mátyás Andó, Faculty of Informatics, Savaria Institute of Technology)


Megbízható elosztott adaptív rendszerek

A szoftver rendszerek sokszor a valós fizikai környezetbe vannak beágyazva más szoftver rendszerekkel együtt, és ezek a rendszerek megpróbálnak alkalmazkodni a változó körülményekhez. Az ilyen autonóm módon működő elosztott rendszerek olykor meglepő viselkedést produkálhatnak, és megbízhatóbbá tételükhöz új elméletekre és stratégiákra van szükség. A kutatás során kialakítottunk egy olyan rendszert, ahol az általunk korábban kidolgozott formális modell alapján működő elosztott adaptív rendszerek tulajdonságait empirikus úton lehet vizsgálni. A szimulációs rendszerrel kísérletekben kimutattuk, hogy ha az autonóm autók a modell alapján választják útvonalukat, akkor valós időben olyan döntéseket tudnak hozni, amit egyébként csak hosszas iteratív szimulációk futtatásával lehet kiszámolni. Ezzel a modellünk egy megbízhatósági tulajdonságát mutattuk ki. (Varga László Zsolt, Informatikai Kar, Programozáselmélet és Szoftvertechnológiai Tanszék)

Trustworthy Distributed Adaptive Systems

The software systems are often embedded in real-world environment together with other software systems, and these systems try to adapt to the changing environment. Such autonomous distributed systems may produce unexpected behaviour in some cases. New theories and strategies are needed to make them trustworthy. Our research focused on the development of a simulation system where we can investigate empirically the properties of distributed adaptive systems that make decisions based on our formal model. We have shown in experiments that if the autonomous vehicles select their routes in accordance with our model, then they can make decisions in real-time which otherwise could be computed in long iterative simulations. This way, we demonstrated a trustworthy property of our model. (László Zsolt Varga, Faculty of Informatics, Department of Programming Theory and Software Technology)


Megbízható számítások és kvalitatív tulajdonságokat megőrző diszkretizációk

Az időben változó folyamatok matematikai modellezéséhez használt közönséges- vagy parciális differenciálegyenletek megoldásai általában csak numerikusan közelíthetők, ezért fontos, hogy a számítógépes approximáció a kvantitatív szempontokon túl kvalitatív szempontból is hűen adja vissza az eredeti modell tulajdonságait. Például a fizikai megmaradási elvekben sokszor csak a nemnegatív megoldások relevánsak (nyomás, sűrűség, koncentráció), így a numerikus diszkretizációktól elvárható, hogy azok is csak nemnegatív értékeket adjanak vissza. A kutatásunk során bizonyos kvalitatív tulajdonságokat megtartó adaptív numerikus módszereket fejlesztettünk ki az egylépéses- és a többlépéses módszerek osztályában, illetve vizsgáltuk ezek tulajdonságait. Ezen kívül az egyik gyakran használt speciális függvény garantált, tetszőleges pontosságú approximációját lehetővé tevő iteratív algoritmus hibaanalízisét végeztük el. (Lóczi Lajos, Informatikai Kar, Numerikus Analízis Tanszék)

Reliable computations and discretizations preserving certain qualitative properties

Solutions to ordinary or partial differential equations in the vast majority of mathematical models can only be described numerically. It is therefore important that the computed approximation preserve not only the quantitative but also the qualitative properties of the model. For example, certain conservation laws admit only non-negative solutions (e.g. pressure, density, or concentration), so their numerical approximations should also have this property. In our research we have developed and analyzed some adaptive, one-step or multistep methods which preserve certain qualitative properties. Besides this, we have given explicit error bounds of an iterative algorithm that produces arbitrary-precision approximations to an important special function. (Lajos Lóczi, Faculty of Informatics, Department of Numerical Analysis)


Mesterséges intelligencia/Artificial Intelligence

A kutatócsoport vezetője: Lőrincz András, tudományos főmunkatárs, Neurális Információfeldolgozási Csoport, Mesterséges Intelligencia Tanszék, Informatikai Kar

Alkalmazásokkal a Mesterséges Általános Intelligencia felé

A mesterséges intelligencia áttörése magával hozta azt a lehetőséget, hogy különböző területeken is ugyanaz az algoritmus (család) lehessen hatékony, amit már mesterséges általános intelligenciának hívhatunk. Megközelítésünk lényege a különböző alkalmazások azonos algoritmusokkal való megoldási kísérlete és a tanultak egybegyúrása egy közös magba. Eredményeinket alkalmazzuk a humán-gép együttműködés, gépi diagnózis és gépi terápia (Rush Medical School, Chicago és HumanE-AI-Net EU Flagship projektek), bőrbetegségek diagnosztizálása (EIT Digital projekt, partnerünk a DFKI), önvezető autó szituációjának felismerése és predikciója (Bosch), gépi tanulás etikai és jogi kérdéseinek alapvetése (ETAMI német, francia, holland, magyar, olasz projekt) területén. (Lőrincz András, ELTE IK, Mesterséges Intelligencia Tanszék, Neurális Információfeldolgozási Csoport, http://nipg.inf.elte.hu/ )

Towards Artificial General Intelligence with Applications

The breakthrough in Artificial Intelligence has made it possible that the same algorithm (family), which could be called Artificial General Intelligence, can become efficient in different fields. The essence of our approach is using the same algorithms for solving different applications and kneading all that has been learnt into one core. We apply our results in human-machine collaboration, machine diagnosis and machine therapy (Rush Medical School, Chicago and HumanE-AI-Net EU Flagship Projects), in the diagnostics of skin disorders (EIT Digital Project, together with DFKI), the recognition and prediction of situations of autonomous vehicles (Bosch), and in the field of ethics and legal issues of machine learning (ETAMI project: German, French, Dutch, Hungarian, and Italian partners). (András Lőrincz, Faculty of Informatics, Department of Artificial Intelligence, Neural Information Processing Group, http://nipg.inf.elte.hu/ )


Extending deep networks with Bayesian SVM for dermoscopic image classification

Skin lesions are one of the most common medical conditions, of these many skin lesions such as melanoma can lead to death if not detected early. Automating this diagnosis process and making it more robust against false negative results is very important to being able to apply such methods in the public. In this area we have applied an ensemble of Bayesian support vector machines to provide probabilistic prediction of skin lesion conditions. These ensembles are built on top of multiple deep convolutional neural networks which are trained on pre-processed images designed to emphasise features used by experts in their diagnosis process. As we obtain a probability distribution for each prediction, we can isolate and reduce false negative predictions by reclassifying those samples which have overlapping uncertainties between two classes as ‘unknown’ leading to an overall reduction in false negatives with only a small decrease in true positives. (Kristian Fenech, Faculty of Informatics, Department of Artificial Intelligence, Neural Information Processing Group, http://nipg.inf.elte.hu/)


A gépi tanulás orvosi alkalmazásainak javítása adatfúzió segítségével

A korai intervenció biztosításához alapvető jelentőségű a mélytanulás olyan orvosi alkalmazásainak fejlesztése, mint például agytumorok térbeli kiterjedésének meghatározása MRI felvételek alapján, vagy bőrrák automatizált diagnózisa dermoszkópos fényképekből.  Az a célunk, hogy különböző alkalmazások hatékonyságát növeljük jónéhány, egymástól valamennyire eltérő algoritmus kimenetének megfelelő neuronhálókkal történő egyesítésével. Konkrétan: javítottunk az agytumorok 3D szegmentációján úgy, hogy 2D szegmentációs metszeteket neuronháló segítségével fuzionáltuk, valamint 15%-kal sikerült csökkentenünk a melanoma anyajegytől való elkülönítésének fals negatív rátáját olyan osztályozó algoritmusok kombinálásával, amelyeket a bőrléziók különböző tulajdonságaira hangoltunk. (Somfai Ellák, ELTE IK, Mesterséges Intelligencia Tanszék, Neurális Információfeldolgozási Csoport, http://nipg.inf.elte.hu/ )

Enhancing medical machine learning applications with data fusion

Improving the performance of medical applications of deep learning methods, for example identifying the spatial extent of brain tumors from MRI images, or the automated diagnosis of skin cancer from dermoscopic images, is crucial in aiding early intervention.  Our aim is to show that the benchmark scores of various applications can be improved by combining the raw output of several slightly different algorithms by a suitable neural network.  In particular we made an improvement on the accuracy of 3D brain tumor segmentation combining the output of powerful 2D segmentation algorithms by a committee machine, as well as reduced by 15% the medically crucial false negative rate of melanoma-nevus classification by combining classifiers tuned to represent different features of skin lesions. (Ellák Somfai, Faculty of Informatics, Department of Artificial Intelligence, Neural Information Processing Group, http://nipg.inf.elte.hu/)


Gépi tanuláson alapuló eljárások nagy megbízhatóságú informatikai megoldások fejlesztésében

Nagy megbízhatóságú informatikai megoldások fejlesztése során különböző alkalmazásterületeken lehet szükség gépi tanuláson alapuló eljárásokra. Ezek közül az alábbiakkal foglalkoztunk: (1) Hatóanyagok és farmakológiai támadáspontok közötti kapcsolatok predikciója. Ez egyrészt meglévő, biztonságos gyógyszerek újrapozicionálását, olyan betegségekre történő alkalmazását támogatja, amelyekre még nem használták az adott gyógyszert, másrészt a gyógyszerek lehetséges mellékhatásainak feltárását segíti. (2) IT szolgáltató rendszerekben létrehozott feladatleírások fontosságának automatizált felismerése. (3) Idősorok osztályozása, amely különböző felismerési feladatok közös elméleti informatikai háttere. Számos esetben (orvosi diagnosztika, mérnöki alkalmazások, biometrikákon alapuló azonosító rendszerek) a felismerés pontosságának növelése szükséges a megbízhatóság növeléséhez. (4) Génkifejeződés adatok osztályozása, amely többek között nagy megbízhatóságú terápiák fejlesztése során lehet érdekes: például az emlőrák különböző altípusai (ER+, ER-) más-más kezelést igényelnek, az altípus felismerhető génkifejeződés adatokból. (Buza Krisztián, ELTE IK, Mesterséges Intelligencia Tanszék)

Machine Learning techniques in reliable IT solutions

In order to develop reliable IT solutions, machine learning techniques may be required in various applications, such as the ones we considered: (1) Drug-target interaction prediction that may allow repurposing of existing drugs that have already been shown to be safe. Drug-target interaction prediction also contributes to discovery of the side effects of drugs. (2) Automated prioritization of IT support system tickets. (3) Time series classification. In various applications (e.g. in medicine, engineering or biometric identification), increasing recognition accuracy is necessary to increase reliability. (4) Classification of gene expression data which may contribute to the development of reliable therapies. For example, in case of breast cancer, the therapy may depend on the subtype of the disease which may be recognized based on gene expression data using machine learning techniques. (Krisztián Buza, Faculty of Informatics, Department of Artificial Intelligence)


Agrárinformatika/Agroinformatics

A kutatócsoport vezetője: Zentai László, egyetemi tanár, Térképtudományi és Geoinformatikai Tanszék, Informatikai Kar

Erózióvédelem és talajmonitoring precíziós domborzatmodellezéssel

A talajeróziónak kitett területeken hektáronként akár több száz tonna talaj pusztulhat le évente. A tápanyagveszteség a terméshozamot csökkenti, és a talaj pótlása állandó kihívást jelent a gazdálkodóknak. Nagyfelbontású (~10 cm) domborzatmodellek segítségével olyan mezőgazdasági területeken végzünk rendszeres vizsgálatokat, amelyekről tudott az erózióérzékenységük. A felszínről készített űrfelvételek alapján többek között gépi tanulásos módszerek segítségével előzetes elemzéseket végzünk, hogy a részletes vizsgálatot a talajerózió által leginkább érintett területeken folytassuk. E területek részletes modelljét drónról készített fényképek segítségével állítjuk elő, és a domborzat, valamint a növényzeti fedettség apró változásait figyelemmel kísérve előrejelzést készítünk arról, hogy mely területeken számíthatunk a legintenzívebb talajpusztulásra. (Albert Gáspár, Informatikai Kar, Térképtudományi és Geoinformatikai Tanszék)

Erosion protection and soil monitoring with precision modeling

In areas exposed to soil erosion, up to hundreds of tons of soil per hectare can be lost in every year. Nutrient loss reduces crop yields and soil replacement is a constant challenge for farmers. By creating high resolution terrain models (~10 cm), we conduct regular surveys of agricultural areas that are known for their erosion susceptibility. Preliminary analyzes based on satellite imagery, including machine learning methods, are conducted to further investigate the areas most affected by soil erosion. We produce a detailed model of these areas using drone photographs and monitor small areas of terrain and vegetation cover for predictions of which areas are most likely to be eroded. (Gáspár Albert, Faculty of Informatics, Department of Cartography and Geoinformatics)


Képfeldolgozás a Giwer (Geoimage Workflow Editing Resources) keretrendszerben

Giwer (GeoImage Workflow Editing Resources) is a program pack, which consists of many image processing functions, tools and gatgets. You can use it interactively, or in batch mode, when you can assemble any combination of functions to one workflow before, then apply to the certain image. Soon the desktop version will be available, but currently it is under development yet. Tif, jpg and bil files are supported, but the working format is the so called gwr format, which is an own, binary format. This format serves fast running. Not only the traditional image processing methods were implemented but many mathematical statistical methods will also be available to interpret the image content. (Elek István, Informatikai Kar, Térképtudományi és Geoinformatikai Tanszék)

Giwer (Geoimage Workflow Editing Resources)

A Giwer (GeoImage Workflow Editing Resources) rendszer egy levegőből, űrből készült képek feldolgozására alkalmas programcsomag. Segítségével számos képfeldolgozási és képértelmezési funkció érhető el, amelyeket egymással kombinálva tetszőleges munkafolyamatot (workflow) hozhatunk létre. Olyan speciális képek kezelését is lehetővé teszi, amelyek 16 bites színmélységűek, és többszáz frekvenciasávot tartalmaznak. Számos képformátum beolvasását támogatja (bil, jpg, tif), de a feldolgozási műveletek saját (gwr) bináris formátumban történnek, mert így lényeges sebességnövekedés érhető el.  A Giwer rendszer weboldala: http://mapw.elte.hu/giwer (István Elek, Faculty of Informatics, Department of Cartography and Geoinformatics)


Szoftveripar és telekommunikációs hálózatok/Software Industry and Telecommunication Networks

A kutatócsoport vezetője: Csuhaj Varjú Erzsébet, egyetemi tanár, Algoritmusok és Alkalmazásaik Tanszék, Informatikai Kar

Reakció rendszerek vizsgálata

A reakció rendszerek (reaction systems) elmélete az újelvű számítások (unconventional computing), egy új, dinamikusan fejlődő területe. Ezen rendszerek molekulák közötti reakciók számítástudományi modelljei, amelyek lehetővé teszik egyes biokémiai jelenségek, molekulák között végbemenő folyamatok jobban megértését.  Az általuk nyújtott új fogalomkészlet és a használt megközelítési mód hozzájárul a számítás mint folyamat természetének jobb megértéséhez. Ebben a projektszakaszban leírását adtuk a reakció rendszerek reverzibilis (megfordítható) működési folyamatainak és megvizsgáltuk hogyan interpretálhatók ismert reverzibilis számítási modellek a reverzibilis reakció rendszerek terminológiájában.  Kialakítottunk reakció rendszerek osztott rendszereire vonatkozóan egy fogalmi apparátust és leírtuk ezen osztott reakció rendszerek és bizonyos számítási modellek kölcsönös megfeleltethetőségét. (Csuhaj Varjú Erzsébet, Informatikai Kar, Algoritmusok és Alkalmazásaik Tanszék)

Investigation of reaction systems

Reaction systems theory is a new, dynamically evolving field of unconventional computing. These systems are computational models of intermolecular reactions that allow for a better understanding of certain biochemical phenomena and intermolecular processes. Their new set of concepts and the approach they use contribute to a better understanding of the nature of computing as a process. In this phase of the project, we described the reversible (reversible)  processes of reaction systems and examined how to interpret known reversible computational models in the terminology of reversible reaction systems. We have developed a conceptual apparatus for distributed systems of reaction systems and described the interrelationship between these distributed reaction systems and certain computational models. (Erzsébet Csuhaj Varjú, Faculty of Informatics, Department of Algorithms and their applications)


Kvóciens induktív típusok Martin-Löf típuselméletében

A számítógépes programokat programozási nyelveken írjuk le. A programozási nyelveket szintén programozási nyelveken írjuk le. Munkánk célja egy olyan programozási nyelv fejlesztése, melyen más programozási nyelveket kényelmesen le tudunk írni, és a tulajdonságait bizonyítani tudjuk. Utóbbi már jelenleg létező nyelveken is megtehető: a Martin-Löf típuselméletre épülő programozási nyelvekben (pl. Agda, Coq, Idris, Lean) a programok típusaival tetszőleges matematikai állítás leírható, az ilyen típusú programok pedig matematikai bizonyításoknak tekinthetők. A programozási nyelvek kényelmesen kvóciens induktív típusokkal adhatók meg, melyeket az előbb említett nyelvek nem támogatnak: az induktív jelentése, hogy a nyelvet szabályokkal adjuk meg, a kvóciensé, hogy a programot és annak eredményét egyenlőnek tekintjük. A Martin-Löf típuselmélet kvóciens induktív típusokkal való kiegészítésén dolgozunk. (Kaposi Ambrus, Informatikai Kar, Programozási Nyelvek és Fordítóprogramok Tanszék)

Quotient inductive types in Martin-Löf type theory

Computer programs are written in programming languages. Programming languages are themselves written in programming languages. The goal of our work is to develop a new programming language in which other languages can be described in a convenient way and their properties can be proven. The latter can be achieved in existing languages: in programming languages based on Martin-Löf's type theory (e.g. Agda, Coq, Idris, Lean) one can describe any mathematical proposition as a type, and a program which has the given type can be seen as a mathematical proof. However the convenient description of programming languages needs quotient inductive types, which the previously mentioned languages do not support: inductive means that the language is given using rules and quotients give the possibility to equate the program and its result. We are working on extending Martin-Löf's type theory with these quotient inductive types. (Ambrus Kaposi, Faculty of Informatics, Department of Programming Languages and Compilers)


Erlang szoftverek statikus elemzése és transzformálása

A számítógéppel támogatott szoftver tervezés/fejlesztés egyik legelterjedtebb módszere a statikus programelemzés, mely során a forráskód futtatása nélkül is tudunk érdemi segítséget adni a szoftver tulajdonságainak ellenőrzéséhez a programozó idejének ráfordítása nélkül. A statikus és dinamikus elemzési módszerek ötvözésével ellenőrizhető, hogy a forráskód megfelelően van-e tesztelve, a program optimálisan fut-e a futási idő, erőforrás használat, energiafogyasztás szempontjából, módszereket adhatunk a tesztelés, megfigyelés hatékonyságának a növelésére.  Jelenlegi kutatásunkban Erlang szoftverek elemzésével és transzformálásával foglalkozunk, különös tekintettel a biztonságos szoftverfejlesztés támogatására, elosztott programok elemzésére és transzformálására, illetve az energiahatékonyság szempontjaira. Ezekkel egészítjük ki a RefactorErl nevű, iparban is jól használható, prototípus alkalmazásunkat. Magyarországon az Erlang nyelvnek két nagy felhasználója az Ericsson és az OTP, akik az egyetem partnereként a kutatások eredményeit felhasználhatják. (Bozó István, Tóth Melinda, Informatikai Kar, Programozási Nyelvek és Fordítóprogramok Tanszék)

Static source code analysis and transformation for Erlang

Static program analyses is a well-known technique in computer-aided software development when we can help to check certain properties of the software without running the applications and wasting the time of a developer. With the techniques of static and dynamic analyses, we can check the quality of the software testing, the optimal usage of resources, energy consumption, and able to improve our development and maintenance processes. In our current research, we are focusing on the Erlang programming language. Our goal is to support secure coding with static analysis, make distributed software development easier with program transformations and analysis, and support energy-efficient software development, among others. We are extending our RefactorErl framework with the new results that are usable by our industrial partners as well, such as the Ericsson Hungary and OTP. (István Bozó, Melinda Tóth, Faculty of Informatics, Department of Programming Languages and Compilers)


Nagy megbízhatóságú refaktorálás

Jelentésmegőrző programtranszformációkkal (refaktorálással) javítható programszövegek szerkezete és érthetősége a jelentés megváltoztatása nélkül. A szoftverfejlesztésnek elengedhetetlen eleme a refaktorálás, hiszen ez hivatott fenntartani a kód minőségét a fejlesztés során. Nagy kódbázisok átalakítása esetén rendkívül fontos, hogy formális garanciákat tudjuk adni arra vonatkozóan, hogy az átalakítás valóban megőrzi a programszöveg jelentését és nem vezet be szoftverhibákat. Kutatásunkban tételbizonyító rendszerben definiálunk komplex programtranszformációkat, és gépileg ellenőrizhetően igazoljuk, hogy nem változtatják meg a programok jelentését. Jelenleg az Erlang programozási nyelvet, transzformációs sémákat és egy kapcsolódó logikát formalizálunk, melyeknek segítségével bizonyítani tudjuk a kódtranszformációk helyességét. Az eredményeink felhasználásával a korábbiaknál nagyobb megbízhatóságú refaktoráló eszközöket tudunk fejleszteni. (Horpácsi Dániel, Informatikai Kar, Programozási Nyelvek és Fordítóprogramok Tanszék)

High assurance refactoring

Software refactoring improves the structure and the appearance of program text without changing its meaning. Refactoring is an essential element of the software development process as it provides quality improvement to existing code. It is crucial to ensure behaviour-preservation during the extensive quality-improving transformations since they are supposed to leave the functionality fully intact. By using proof assistant software, we define and verify complex refactoring transformations in a machine-checked environment, providing high assurance of correctness. In particular, we define the Erlang programming language, transformation schemes and corresponding logics in the Coq proof assistant in order to formally argue about the semantics-preservation of the transformations. Our results enable software developers to apply tool-supported refactoring in large-scale with an unprecedented level of trustworthiness. (Dániel Horpácsi, Faculty of Informatics, Department of Programming Languages and Compliers)


Mélyen programozható hálózatok és alkalmazásaik

A szoftver-vezérelt hálózat (SDN) új paradigmaként jelent meg egy évtizeddel ezelőtt. Célja a hálózati infrastruktúrák rugalmasságának és konfigurálhatóságának növelése volt. Ehhez szétválasztja a hálózatot vezérlő logikát (vezérlési sík) a forgalmat továbbító adatsíktól (routerek és switcherk). Ennek megfelelően a hálózati eszközök egyszerű csomagküldő elemekké váltak, miközben a vezérlést egy logikailag központosított vezérlőben (vagy hálózati operációs rendszerben) valósítják meg. Ez nagy rugalmasságot tesz lehetővé a hálózatkezelés, -vezérlés, (újra-)konfigurálás és a hálózati megoldások fejlődése szempontjából. Eredetileg az SDN a vezérlési síkot rugalmassá tette a programozhatósága révén, azonban az adatsíkot meghagyta egy egyszerű előre rögzített funkciókkal rendelkező eszköznek, mellyel jelentősen korlátozta az mély innovációk lehetőségét a hálózatokban, amelyek gyakran megkövetelik az adatsík módosítását is (pl. új protokoll fejlécek feldolgozását, ismeretlen fejléc mezőkön történő keresést vagy állapot alapú csomagműveletek használatát). Kutatásaink során azt vizsgáljuk, hogy a hálózatok mély programozhatósága, mely mind a vezérlési és az adatsíkot is lefedi, hogyan használható ki olyan új alkalmazásokkal, mint a fokozott hálózati biztonság, szolgáltatás-minőség biztosítása és a hálózat által elvégzett számítások, ahol a szerveroldali feladatokat teljesen vagy részben a hálózati eszközök valósítják meg. (Laki Sándor, Informatikai Kar, Információs Rendszerek Tanszék)

Deeply programmable networks and their applications

Software-Defined Networking (SDN) emerged as a new paradigm over a decade ago to increase the flexibility and configurability of networking infrastructures. It separates the network’s control logic (control plane) from the underlying data plane (routers and switches) forwarding the traffic. Accordingly, network switches have become simple packet forwarding elements while the control logic is implemented in a logically centralized controller (or network OS), enabling high flexibility in network management, control, (re)configuration and evolution. Originally, SDN made control plane flexible through programmability, but left the forwarding plane simple with fixed functions, significantly limiting deep networking innovation that requires the modification of the data plane (e.g., those that require the processing of new protocol headers, lookups on unknown header fields or stateful packet operations). In this research, we explore how the deep programmability covering both control to data planes can be exploited by novel applications like increased security, quality of service and in-network computing where server-side tasks are fully or partially carried out by the network devices. (Sándor Laki, Faculty of Informatics, Department of Information Systems)


Hálózati erőforrás megosztása a csomagok színezésével

A felhasználói szempontból a számítógépes hálózatokra elvárás, hogy „gyorsak” legyenek, ami azt jelenti, hogy mindig rendelkeznünk kell elég sávszélességgel, hogy a csomagokat el tudjuk szállítani és a csomagok nem tölthetnek sok időt a hálózatban. Ha a hálózatot több felhasználó használja és a terhelés nagyobb, mint amennyit a hálózat el tud bírni, akkor valakinek a csomagját el fogja dobni a rendszer. A csomag eldobása információ vesztéssel jár, melyet egy újabb csomagban át kell vinni. Az erőforrás megosztás kutatás lényege, hogy olyan módszereket készítsünk, amelyek biztosítják, hogy felhasználók/alkalmazások egyenlően vagy valamilyen súlyozás szerint részesüljenek a szűk hálózati erőforrásból. A megoldásunk a csomagok színezésében rejlik. A felhasználók csomagjait megszínezzük az alapján, hogy mennyire értékes a csomagja. Ezzel a megoldással, ha a hálózat túlterhelt, akkor azt a csomagot fogjuk eldobni, aminek az értéke a legkisebb. Megmutattuk, hogy megfelelő színezési algoritmusokkal a meglévő módszereknél jobban kontrollálható a hálózati erőforrásokhoz való hozzáférés akár több tízezer felhasználó esetén is. (Gombos Gergő, Informatikai Kar, Információs Rendszerek Tanszék)

Network resource sharing with packet marking

From the users’ perspective, computer networks need to be „fast”, meaning that enough bandwidth is available at any time to transport packets, and packets are delivered as fast as possible. If there are numerous users in the network and the offered load is higher than what the network can handle, the system will drop some packets. Packet drops mean information loss that should be retransmitted in other packets. The resource sharing research aims to develop methods ensuring that users/applications can access to the sparse network resources equally or according to some weighting. Our solution is based on packet marking/coloring. The users’ packets are marked by a value expressing how important the packet is. If the network is overloaded, this method will drop packets with the lowest value. We have shown that access to network resources can be controlled better for ten-thousands of users with proper marking algorithms than with existing solutions. (Gergő Gombos, Faculty of Informatics, Department of Information Systems)


Újgenerációs heterogén hálózatok erőforráskezelési lehetőségei

A tradicionális hálózati modelleket az utóbbi időben egyre inkább kezdik kiszorítani az új generációs szoftver-vezérelt hálózatok (SDN). Az SDN szemlélet a csomagok feldolgozásának módját két síkra bontja szét, az adatsík az adattovábbítási funkciókat látja el, míg a kontrol sík a vezérlésért felel. Az adatsíkok programozhatósága komoly fejlődésen ment keresztül az elmúlt években. Több olyan magas absztrakciós szintű nyelv jelent meg, amelyek segítségével egyszerűen implementálhatóvá váltak a komplexebb alkalmazások is. Egy ilyen rendkívül dinamikusan fejlődő nyelv a P4, ami mögött komoly ipari és akadémiai partnerek sorakoznak fel. Jelenlegi kutatásomban P4-et felhasználva tervezek dinamikusan adaptálódó algoritmusokat és programokat, amik a tényleges terhelés függvényében képesek változni, és tudnak bizonyos funkciókat a heterogén hálózat olyan elemére kiszervezni, ami az adott funkciót a leggyorsabban képes elvégezni. (Vörös Péter, Informatikai Kar, Információs Rendszerek Tanszék

Resource management capabilities of next generation heterogeneous networks

Traditional network models are increasingly being supplanted by next-generation software-defined networks (SDNs). The SDN approach divides the processing of packets into two planes, the data plane performs packet transfer functions, while the control plane provides the management. The programmability of data planes has undergone significant development in recent years. Several high-level abstraction languages have emerged, making it easy to implement more complex applications. One such dynamically evolving language is P4, which is backed by serious industrial and academic partners. In my current research, I use P4 to design dynamically adaptive algorithms and programs that can vary with actual load and can offload certain functions to an element of the heterogeneous network that can perform that function the fastest. (Péter Vörös, Faculty of Informatics, Department of Information Systems


Digitális szolgáltatások/Digital Services

A kutatócsoport vezetője: Weisz Ferenc, egyetemi tanár, Numerikus Analízis Tanszék, Informatikai Kar

A szoftver megbízhatóságának kezelése

A szoftverrendszerek megbízhatósága azt jelzi, hogy a felhasználók milyen mértékben tudják használni az igényelt szolgáltatásokat. A megbízhatóság már a kezdeti termékhasználat előtt is mérhető, erre a feladatra a szoftvertesztelés hivatott. A szoftver megbízhatósága számos olyan területtel van kapcsolatban, ahol a szoftver minősége érintett (lásd ISO / IEC 25010). Kutatásainkban a szoftver megbízhatóságának különböző aspektusait vizsgáltuk. Első lépésben egy nagy méretű, domain-specifikus alkalmazást vizsgáltunk és javítottunk annak használhatóságán azáltal, hogy Java alapra helyeztük a  feldolgozás köztes nyelvét. A kiberbiztonsággal kapcsolatban új matematikai modelleket kezdtünk el kidolgozni a különféle biztonsági protokollok felépítéséhez. (Kovács Attila, Informatikai Kar, Komputeralgebra Tanszék)

Dealing with software reliability

Reliability of a software system is a measure of how well users think it provides the services that they require. Informal reliability can be measured prior to customer’s initial product use. Software testing serves as a way to measure and improve software reliability. It plays a major role in the design, implementation, validation and release phases. Software reliability relates to many areas where software quality is concerned (see ISO/IEC 25010). In our research we concentrated to several aspects of software reliability, as well as to measuring them via software testing. We investigated a domain specific large-scale application using C/C++ as an intermediate language for testing and improved the usability experience and productivity of developers by reducing the length of builds during their daily work. We have results regarding cyber security in which we started to develop new mathematical models for building different kinds of security protocols. (Attila Kovács, Faculty of Informatics, Department of Computer Algebra)


A téri tájékozódási keretek a kognitív vizualizációban:  navigáció valós és virtuális térben

Kutatásunkban a téri tájékozódásban alapvető téri referenciakeret szerepét vizsgáljuk, amely alapvető jelentőségű a humán téri tájékozódást és vizualizációt támogató, interaktív szolgáltatások fejlesztésében. Szemmozgáskövetéses és viselkedési adatok alapján kívánjuk az egocentrikus és allocentrikus  referenciakeretek nézőpontjai közötti váltást előrejelezni adaptív rendszerek fejlesztéséhez. Terepi tájékozódás helyzetben, iránymutatásos kísérleteinkben kimutattuk a geocentrikus referenciakeret jelenlétét a környezeti, Budapest városi térben való tájékozódásnál és a földrajzi térben egyaránt. Mivel a magyar hallgatóknál az iránymutatás pontossága korrelált a Budapesten töltött idővel és jobb volt a külföldi résztvevők eredményeinél, azt feltételezzük, hogy a kiinduló tájolás a kognitív térkép tanult komponense, amelynek leghatékonyabb közvetítői az északra tájolt térképek. (Török Zsolt Győző, Informatikai Kar, Térképtudományi és Geoinformatikai Tanszék)

Spatial reference frames in cognitive visualization: navigation is real and virtual spaces

In our research, we examine the fundamental role of spatial reference frames, which is essential for the development of interactive services that support human spatial orientation and visualization. Based on eye movement tracking and behavioural data, we intend to predict the shift between the viewpoints of egocentric and allocentric reference frames for the development of adaptive systems. In a field orientation situation with our pointing experiments we have shown the presence of the geocentric reference frame in environmental, urban space in Budapest as well as in large geographical space. Since the accuracy of pointing the directions correlated with habitation in Budapest in the case of Hungarian students, and it was better than the results of foreign participants, we assume that initial orientation is a learned component of the cognitive map, the most efficient mediators being traditional, north-oriented maps. (Zsolt Győző Török, Faculty of Informatics, Department of Geoinformatics and Cartography)


Nagy megbízhatóságú információs rendszer szolgáltatások

A szervezeti információs rendszerek megbízhatósága egy olyan informatikai tudományterület, amely annak a megvalósítását célozza, hogy hogy az alkalmazási rendszerek az igényelt vállalati/üzleti/igazgatási/szervezeti funkcionális szolgáltatásokat olyan módon nyújtsák, hogy azok ellentmondásmentesek (konzisztensek), költség-takarékosak (gazdaságosak), legyenek anélkül, hogy kompromisszumokat kellene kötni a rendelkezésre állás, teljesítmény és karbantarthatóság tekintetében. A vizsgált területek: (1) Dinamikus szervezeti, igazgatási folyamatok modellezése formális eszközökkel, (2) Modellből programkészítés, (3) Kognitív információs rendszerek, (4) A megörökölt és új rendszerek közötti adatmigráció, (5) Folyamatbányászat (Process mining) . Az elért eredményeket konferenciákon publikáltuk, az operacionalizált megoldásokat kísérleti tervezéssel és fejlesztéssel valósítottuk meg. (Molnár Bálint, Informatikai Kar, Információs Rendszerek Tanszék)

Reliability of Enterprise Application

The Reliability of Enterprise Application is a discipline that ensures applications will deliver the required business functionality in a consistent, predictable, and cost effective manner without compromising core aspects such as availability, performance, security, and maintainability. The research areas as follows (1) Formal Modeling of Dynamic Processes, (2) Modell to Programming, (3) Cognitive Information Systems, (4) Data migration, Schema Mapping and Matching between Legacy Information Systems and Modern Information Systems, (5) Process Mining. The results of the researches have been published on conferences. The operationalized solutions are achieved through experimental design and software development. (Bálint Molnár, Faculty of Informatics, Department of Information Systems)


Biztonságos elosztott hálózati alkalmazások

A nagy hálózatok robbanásszerű térnyerésével párhuzamosan a felmerülő problémák kezelésére is figyelmet kell fordítani, ezen belül a biztonsági vonatkozások kiemelten kezelendőek. A nagy hálózatokban tárolt érzékeny személyes adatok védelmét külső és belső támadások ellen biztosítani kell, amihez megfelelő kriptográfiai eljárások elméleti hátterének feltérképezése, illetve gyakorlati megvalósítása egyaránt kulcs-fontosságú.  A biztonságos hálózatokra épülő rendszerek alapproblémái közül az elosztott számítások, illetve elosztott tárolás kérdéskörével foglalkozom kutatásaimban. Számítási alkalmazásokhoz kapcsolódóan IoT környezetben alkalmazható hálózati kommunikációt elősegítő eljárásokon dolgozunk. Tárolási oldalról összetett hozzáférés-kezelési problémák optimális megoldásait kutatjuk. (Ligeti Péter, Informatikai Kar, Komputeralgebra Tanszék)

Secure applications in distributed network

Due to the rapid growth of presence of large communication networks, the resulting technical problems must be handled properly as well. Especially, the security and privacy concerns are extremely important in many application areas. The stored sensitive data must be protected against both insider and outsider attacks, therefore the deep understanding of the theoretical cryptographic background and the correct practical implementations are the keys. My research is focusing on problems in cryptographically secure distributed computation and distributed storge. On the computation side, we are working on secure network communication tools in IoT environment. On the storage side, our main contribution is devoted to optimal solutions for sophisticated access control problems. (Péter Ligeti, Faculty of Informatics, Department of Computer Algebra)


Matematika és optimalizáció/Mathematics and Optimization

A kutatócsoport vezetője: Jordán Tibor, egyetemi tanár, Operációkutatási Tanszék, Természettudományi Kar

Irigység-mentes elosztások

Az úgynevezett "igazságos elosztás" problémákban úgy szeretnénk bizonyos tárgyakat szétosztani emberek egy csoportjában, hogy mindenki elégedett legyen az általa kapott tárgyak halmazával. Több jól bevált és széleskörűen alkalmazott igazságossági koncepció is létezik, melyek közül talán a legtermészetesebb az úgynevezett "irigység-mentes" elosztás (EF) fogalma. Ekkor minden résztvevőhöz tartozik egy értékelési függvény, és olyan beosztást keresünk, melyben tetszőleges ember többre értékeli az általa kapott halmazt bármely másik résztvevőénél. Sajnos nem minden esetben létezik ilyen beosztás, így kutatásaink a fenti fogalom két relaxáltjára összpontosulnak: az "egy elemig" (EF1) illetve a "bármely elemig" (EFX) irigység-mentes beosztások létezésére. Nagyszerűen szemlélteti a témát a Spliddit nevű oldal, mely matematikai megoldásokat kínál olyan hétköznapi feladatokra, mint például a lakbér, a taxi költség, vagy éppen egy iskolai projekthez való hozzájárulás igazságos elosztása.(Bérczi Kristóf, Természettudományi Kar, Matematikai Intézet, Operációkutatási Tanszék)

Envy-free allocations

In fair division problems, we are given a set of resources and a set of agents with different preferences, and the goal is to find an allocation of the resources among agents so that each agent finds the allocation fair. There are several established fairness concepts, among which the probably most natural one is envy-freeness (EF). An allocation is called envy-free if no agent envies another agent's bundle. Although this is a very natural criteria for the fairness of an allocation, such a solution rarely exists. In order to circumvent the possible non-existence of envy-free allocations, our research focuses on its relaxations called envy-freeness up to one item (EF1) and up to any item (EFX). An illustrious example of these methods is provided by Spliddit, an online tool that provides provably fair solutions for various everyday problems.(Kristóf Bérczi, Faculty of Science, Institute of Mathematics, Department of Operations Research)


Alakzatok rekonstruálása távolságadatokból

Kutatásunkban a következő matematikai kérdés különböző változataira keresünk választ, illetve hatékony algoritmust: egy síkbeli, vagy a térben elhelyezkedő ponthalmaz néhány elemének ismerjük a pontos helyét, míg néhány pontpárnak ismerjük a távolságát. Milyen feltételek mellett és hogyan tudjuk az összes pont helyzetét meghatározni? Ez a kérdés felmerül a molekuláris biológiában, drótnélküli szenzor hálózatok lokalizációs feladataiban, autonóm járműflották irányításában, CAD feladatokban. Rokon problémákat vizsgálnak a szerkezetek merevségének elméletében, amelynek statikai és anyagtudományi vonatkozásai vannak - ezekkel is foglalkozunk. Elsősorban olyan kérdésekre keressük a választ, amelyekben az ismert adatok (szerkezetek) kombinatorikus tulajdonságai a döntőek, és ahol hatékony algoritmusok kidolgozása is lényeges. Eddig eredményeink unit disk gráfok és molekuláris gráfok globális merevségére (egyértelmű rekonstruálhatóságára) adnak feltételeket és kapcsolódó algoritmusokat. (Jordán Tibor, Természettudományi Kar, Matematikai Intézet, Operációkutatási Tanszék)

Uniquely reconstructible formations

A natural problem that arises in several situations is the following:  how can we find the position of each point in a planar or spatial point set if we are given the exact position of some of the points and a subset of the pairwise distances between the points? When is the given data sufficent and how can we obtain the positions in an efficient manner? Questions like this occur in molecular biology, in localization problems of sensor networks, in the control of autonomous vehicles, and in CAD. Similar problems are studied in the theory of rigid frameworks, which have connections to statics and material science - we also work on problems from this field. We study versions of these problems where the combinatorial properties of the data (frameworks) are relevant, and where efficient algorithms are important. Our results provide conditions for unique localizablity (global rigidity) as well as efficient algorithms for unit disk graphs and molecular graphs. (Tibor Jordán, Faculty of Science, Institute of Mathematics, Department of Operations Research)


Ütemezés-elmélet: összetett folyamatok optimalizálása matematikai módszerekkel

Legyen szó egy gyártási folyamat fázisairól vagy többlépcsős pénzügyi műveletek végrehajtásáról, a részfeladatok sorrendjének és időpontjainak meghatározása (ütemezése) fontos része a folyamat optimalizálásának. Az ütemezés-elmélet e feladatokat absztrakt matematikai modellben vizsgálja, melynek segítségével különféle alkalmazásokból származó feladatokat tudunk közös algoritmussal megoldani. A projektben kidolgozott erőforrás-korlátos ütemezési algoritmusok egyaránt használhatók korlátozott alapanyag-beszállítások és időben változó pénzügyi források kezelésére. Másik kutatásunk a 3D nyomtatásban több fej ütközésmentes mozgatására nyújt megoldást, de közeli frekvenciák interferenciájának elkerülésére is használható. (Király Tamás, Természettudományi Kar, Matematikai Intézet, Operációkutatási Tanszék)

Scheduling theory: optimizing complex procedures using mathematical methods

From organizing complex manufacturing procedures to arranging elaborate financial operations, many real-world problems involve the scheduling of subtasks as an important part optimization. Scheduling theory studies these types of problems in an abstract framework that allows the same algorithm to be applied to diverse types of applications. In the project, we prove complexity results and develop algorithms for scheduling. Our work on resource constraints is applicable both to problems with limited raw material availability and to problems with calculable financial constraints. Our other work solves a problem related to 3D printing with multiple nozzles, but can be used also in frequency assignment to avoid interference. (Tamás Király, Faculty of Science, Institute of Mathematics, Department of Operations Research)


Robusztus kétszintű optimalizálási feladatok, és igazságos csomag továbbítási problémák kommunikációs hálózatokban

Kétszintű optimalizálási problémák esetén egy “vezetőnek” kell optimális döntést hoznia, úgy, hogy az meghatározza egy alárendelt optimalizálási problémájának a paramétereit, ugyanakkor az alárendelt optimális megoldása kihat a vezető nyereségére, hasznára. Ilyen probléma merül fel például egy áramkereskedő áramtarifáinak a meghatározásakor, amikor is a fogyasztók napon belüli vételezését akarja olyan módon befolyásolni, hogy számára a lehető legnagyobb profitot hozza. A kétszintű optimalizálási problémák megoldása abban áll, hogy a vezető számára adunk egy módszert a legkedvezőbb döntés meghozatalához. Igen ám, de ehhez részletesen ismerni kell az alárendelt döntési szempontjait, ami a gyakorlatban nem mindig lehetséges. A kutatás célja robusztus megoldási lehetőségek vizsgálata, ahol is nem tételezzük fel a követő döntéshozatalai mechanizmusának miden részletre kiterjedő ismeretét. Az eddigi eredmények a tarifa optimalizálási probléma robusztus megoldásainak definiálásával, és egy robusztus hálózat tervezési probléma egzakt és heurisztikus megoldásával kapcsolatosak. Egy másik témakör az igazságos csomagtovábbítás, ahol is a cél kommunikációs hálózatok szűk keresztmetszeteinek igazságos elosztása a felhasználók között. Több féle igazságos elosztás létezhet, amelyek akár nagyon hasonló matematikai modellekhez és algoritmusokhoz vezetnek. A kutatás célja matematikai modellek vizsgálata. (Kis Tamás, Természettudományi Kar, Matematikai Intézet, Operációkutatási Tanszék)

Robust bilevel optimization, and fair packet routing in communication networks

In a bilvel optimization problem there is a leader and some followers. The leader decides first and sets parameters for the followers, who optimize their objective functions. However, the leader’s objective depends on the optimal solutions of the followers. This problem arises e.g., when an electricity trader wants to set tariffs over a day in order to maximize its profit, while the followers (customers) want to minimize their utility functions which are functions of the electricity prices. The consumption of the follower greatly influences the profit of the trader, so it has to set prices carefully. The solution of a bilevel optimization problem consists of a method which helps the leader to make “optimal” decisions. However, to this end, one has to know the constraints and the utility function of the follower(s), which is unrealistic in many practical problems. The goal of the research is to study solutions for the optimization problem of the leader, where we do not assume the knowledge of all details of the followers’ optimization problems. The results so far are related to the possible definition of robust solutions for the electricity tariff optimization problem, and the exact and heuristic solution of a robust network design problem. Another topic is the fair sharing of communication resources between the users. There are several notions of fairness, which may lead to similar mathematical models and algorithms. The goal of the research is to study some mathematical models. (Tamás Kis, Faculty of Science, Department of Operations Research)


Folyamproblémák az adatirányításban

A PPV protokoll az internetes adatforgalomban az egyes adatfolyamok részére rendelkezésre bocsátandó csatornakapacitást határozza meg, úgy hogy lehetőleg a küldők különböző stratégiái esetén is igazságosan ossza el a kapacitást, például ne sajátíthassa ki az egyik felhasználó az egész csatornát. Kutatásunk célja a protokoll matematikai elemzése, a működés leírása és a működéssel kapcsolatos garanciák bizonyítása, például egyensúlyi helyzetek jellemzése és a dinamika leírása, valamint az eredmények szimulációkkal való összevetése. (Tóthmérész Lilla, Természettudományi Kar, MTA-ELTE Egerváry Kutatócsoport, Operációkutatási Tanszék)

Flow problems in traffic control

The PPV protocol assigns capacities to data flows in internet traffic with the aim of distributing capacities in a "fair" way, even if the data senders use different protocols. Fairness means for example that no sender can expropriate the channel all to itself. Our aim is to apply mathematical analysis to the problem. describe the behaviour, and to prove guarantees on the performance. In particular, to characterize equilibrium states and describe the dynamics, moreover, to compare the results with simulations. (Lilla Tóthmérész, Faculty of Science, MTA-ELTE Egerváry Research Group, Department of Operations Research)


Optimalitási kérdések véges projektív síkok illeszkedési gráfjaira

A matematikai optimalizációs eszközök nemcsak alkalmazzák a matematikai ismereteket, hanem alkalmasak a matematikai kutatások segítésére is. Számos extremális kombinatorikai kérdés felfogható egy adott struktúra (jelen esetben egy ún. véges projektív sík) alkalmas értelemben optimális részstruktúráinak vizsgálataként. A jelen kutatás két extremális kombinatorikai jellegű kérdésre keres választ egyrészt szigorúan matematikai eszközök, másrészt professzionális optimalizációs szoftverek használatával. Az elért eredmények a matematikán belül értékelhetőek közvetlenül, azonban a kutatási módszerek alkalmasak lehetnek olyan részstruktúrák kutatására is, melyekből a hibamentes digitális kommunikációt támogató kódolási sémák fejleszthetőek.(Héger Tamás, Természettudományi Kar, Matematikai Intézet, Számítógéptudományi Tanszék)

Optimality problems for the incidence graphs of finte projective planes

Tools of mathematical optimization not only utilize but have the potential to enrich mathematical knowledge as well. Numerous problems in extremal combinatorics may be viewed as an effort to find an optimal substructure (along a suitably chosen objective) of a given structure which, in our case, is a so-called finite projective plane. The present research focuses on two questions in extremal combinatorics and applies rigorous mathematical arguments on the one hand, and professional optimization software on the other hand. The results achieved can be appreciated within mathematics directly; however, the methods may be applied to find substructures capable of supporting error-free digital communication by developing coding schemes built upon them. (Tamás Héger, Faculty of Science, Institute of Mathematics, Department of Computer Science)


Protein hajtogatás, grafikus utazóügynök, útvonalválasztás

Egy híres (3 független szerzőcsoport által megfogalmazott) sejtés egyik forrása a protein molekulák struktúrájának vizsgálatából ered. Itt a hidrofobikus-hidrofil modellben az aminosavakat erre a két csoportra osztják, és azt vizsgálják, hogy a kétdimenziós négyzetrácsra hogyan lehet ráhajtogatni egy protein molekulát, hogy az energiája a lehető legkisebb legyen. Ha igaz lenne a sejtés (mindig van kétharmad arányú megfelelő párosítás), abból jobb közelítő hányadosú algoritmus adódna erre a feladatra. Megmutattuk, hogy a sejtés nem igaz, több lépcsőben egész odáig jutottunk, hogy a sejtett kétharmad helyett legfeljebb 0,5858 lehet az igazság. A grafikus utazóügynök probléma jelenleg a nemzetközi kutatások középpontjában áll, itt a feladat legkevesebb élből álló olyan körséta találása, mely minden csúcsot meglátogat. A legtöbbet vizsgált eset a 3-reguláris 3-összefüggő gráfok esete. Itt az optimum értékére a legjobb ismert alsó becslés a csúcsok száma, ehhez mérik a közelítő algoritmusok hatékonyságát. Megmutattuk, hogy vannak olyan gráfok, ahol az optimum értéke legalább 9/8-szorosa a csúcsok számának. Hibatűrő elvezetés témakörében azt vizsgáltuk, hogy hogyan lehet egy adatfolyamot úgy elvezetni, hogy bármely link meghibásodása esetén is célba érjen, mindezt minimális költséggel.(Király Zoltán, Természettudományi Kar, Matematikai Intézet, Számítógéptudományi Tanszék)

Protein folding, graphic TSP, routing

A famous conjecture (which was stated independently by three different groups of authors) comes from the study of structure of protein molecules. In the two dimensional Hydrophobic-Hydrophilic model people are looking for approximation algorithms for folding proteins on the two-dimensional lattice achieving minimal energy. If the conjecture (there is always a adequate matching of relative size 2/3) were true, then a better approximation ratio can be achieved. We have shown that this conjecture is not true, the truth is at most 0.5858. The graphic Traveling Salesperson Problem is in the center of international research. Here the problem is to find a tour consisting of the minimum number of edges which visits every vertex. The most studied case is when the graph is 3-regular and 3-connected. The best known lower bound for the value of the optimum is the number of the vertices, the best approximation ratios are compared with that. We have shown graphs where the value of the optimum is at least 9/8 times more than the number of the vertices. In the topic of survival routing we investigated the problem, how we can route a data flow if after failure of any link the data must reach the goal node, and we are looking for a minimal cost solution. (Zoltán Király, Faculty of Science, Institute of Mathematics, Department of Computer Science)


Mesterséges intelligencia alkalmazása orvosi képfeldolgozásban és természetes nyelvi modellezésben

A kutatás során a mély tanulás módszereit használjuk az orvosi képfeldolgozásban, valamint a természetes nyelvi modellezésen keresztül félig strukturált adathalmazok, pl. naplóállományok vagy programkódok elemzésére. Tipikus feladat annak felismerése, hogy az adatok által leírt akár egymástól távoli elemi események, ill. műveletek mikor jeleznek komplex jelenségeket, tulajdonságokat. Orvosi képek szegmentációs algoritmusainak fejlesztése során konvolúciós mélyhálós megközelítésekből kiindulva, azokat bővítve, a keresett mintázatokra vonatkozó, több strukturális információt is hordozó generatív, ill. ún. versengő modellek kialakításával és vizsgálatával foglalkozunk. A kapott új modellek várhatóan széles körben, orvosi, biológiai, ill. mezőgazdasági képelemzési feladatokon lesznek hasznosíthatók. (Lukács András, Természettudományi Kar, Matematikai Intézet, Számítógéptudományi Tanszék)

The Application of Artificial Intelligence in Medical Image Analysis and Natural Language Modelling

We are working on deep learning methods used in medical image processing and natural language modeling for analyzing semi-structured datasets, e.g. log files or program codes. A typical task is to recognize complex phenomena or properties indicated by even distant elementary units of the data. In the research on medical image analysis, we work on segmentation algorithms extending the convolutional deep neural networks by generative and adversarial methods containing more structural information related to the expected patterns. Presumably, the new models will be widely used for medical, biological, and medical applications and agricultural image analysis tasks. (András Lukács, Faculty of Science, Institute of Mathematics, Department of Computer Science)


Titokmegosztás geometriai módszerekkel

A titokmegosztás olyan eljárás, amelynek segítségével valamely érzékeny információt kívánunk szétosztani a felhasználók között, mindenkinek saját titokrészeket biztosítva. A cél annak biztosítása, hogy kizárólag a jogosult felhasználó csoport legyen képes az eredeti titok visszaállítására a saját részeikből. Fontos alkalmazási példák egy banki trezor kulcsainak, vagy céges titkok hozzáférési kódjainak szétosztása. Minél bonyolultabb a hozzáférési rendszer, annál nehezebb optimális szétosztási algoritmust adni. Kutatásainkban olyan speciális rendszerekkel foglalkozunk, amelyekben a felhasználók különböző hierarchia-szintekhez tartoznak. A kidolgozott hatékony és optimális megoldások önmagukban is érdekes véges geometriai konstrukciókon alapulnak. (Sziklai Péter, Természettudományi Kar, Matematikai Intézet, Számítógéptudományi Tanszék)

Geometrical methods in secret sharing

Secret sharing refers to a method for distributing some sensitive information amongst a group of users, each of whom is allocated a partial information shares of the original secret. The goal is to ensure that only the authorized coalitions of users could compute the secret from their shares. Notable applications are sharing keys to a central vault in a bank or sharing the access codes to secret files in a company. The more complicated the access control structure, the harder is to construct an optimal distribution algorithm. We are working on special access control mechanisms using different levels of hierarchy of the users. We proposed novel efficient and optimal solutions based on finite geometrical constructions, which are of particular interest. (Péter Sziklai, Faculty of Science, Institute of Mathematics, Department of Computer Science)


Véges geometriák és kódelméleti alkalmazásaik

A mindennapokban gyakran találkozunk kódokkal (pl. vonalkód az árukon). Ugyanez a helyzet informatikai hálózatokban is, gyakran kell redundáns információt küldenünk ahhoz, hogy zajos csatornán átvitt üzenetet hiba nélkül vissza tudjunk fejteni. Ez a dekódolás kritikus, mert általában nem lehet valós időben elvégezni. A szindróma-dekódoláshoz fontos ismernünk, hogy adott szindrómára mi a legkisebb súly. Az ellenőrző mátrix oszlopait véges projektív tér pontjaiként tekintve MDS kódokat, Reed-Solomon kódokat vizsgáltunk, és meghatároztuk a  mellékosztályok súlyeloszlását (Blokhuis, Pellikaan-nal). Véges geometriában benyújtottunk egy stabilitási eredményt, valamint számítógépes módszerekkel ellenőrizzük egy gráf erős regularitását, mely eredmények kódelméletben szintén felhasználhatóak. (Szőnyi Tamás, Természettudományi Kar, Matematikai Intézet, Számítógéptudományi Tanszék)

Finite geometries and their applications to coding theory

In everyday life we often meet codes (e.g. the bar code on products). The same situation occurs in networks, we often have to transmit redundant information through a noisy channel to be able to decode the message without errors. This is a critical point, since it is not possible in general in real time. For syndrome decoding it is important to know the minimum weight for a given syn drome.  Viewing the columns of the check matrix as points of a finite projective space, with Blokhuis and Pellikaan we studied MDS codes, Reed-Solomon codes and determined their coset leader weight enumerator. In finite geometry we submitted a manuscript on stability results, and recently we are checking the strong regularity of a graph with computers. These results can later be applied to coding theory. (Tamás Szőnyi, Faculty of Science, Institute of Mathematics, Department of Computer Science)


Adaptív Időintegrátorok

Modellek szimulációs eredményeinek következtében gyakran hozunk meg döntéseket. A folyamat egyik kritikus lépése a numerikus eljárás elméleti helyességének garantálása. Klasszikus modellezés esetén különböző típusú differenciálegyenletekre alkotjuk meg ezeket a módszereket. A 2019-es év egy meghatározó észrevétele volt, hogy az ezek a módszerek fontos szerepet játszanak a mai adattudomány vezérelte világ legújabb mélytanulási modelljeiben is. A kutatás alapcélja kezdetiérték-feladatok robusztus adaptív lineáris többlépéses módszereinek fejlesztése volt. Ezt egy új általánosított hibamodell segítségével és kiterjesztett irányításelméleti eszközökkel meg is tettük. Jelenleg másik fontos, megmaradási törvények modelljeire alkalmazandó adaptív egylépéses módszerek fejlesztésén dolgozunk. (Fekete Imre, Természettudományi Kar, Matematikai Intézet, Alkalmazott Analízis és Számításmatematikai Tanszék)

Adaptive Time Integrators

We are making important decisions based on simulation results of certain models. One of the critical steps is to guarantee the theoretical foundations of the numerical methods. In case of classical modeling we design these methods for different types of differential equations. A key observation of 2019 was that these methods play a crucial role in the newest deep learning models of our data driven world, too. The aim of the research was designing robust adaptive linear multistep methods for initial value problems. We have reached this goal by creating a new asymptotic error model and extending the control theoretical tools. Recently, we are working on designing adaptive one step methods for conservation law models.(Imre Fekete, Faculty of Science, Institute of Mathematics, Department of Applied Analysis and Computational Mathematics)


A Richardson-extrapoláció és alkalmazása szennyezőanyag-terjedési modellben

Napjainkban a társadalom felől egyre nagyobb az igény az emberi tevékenység környezeti hatásainak felmérésére, beleértve a levegőminőség jövőben várható alakulását. Ehhez nagyméretű parciális differenciálegyenlet-rendszereket kell megoldanunk az európai kontinenst lefedő modelltartományon, sűrű felbontásban, hosszú időintervallumon, és a jövőre vonatkozó több éghajlati forgatókönyv figyelembe vételével. A feladat megoldása korszerű numerikus eljárások kifejlesztését és alkalmazását igényli. Kutatómunkánkban egy konvergenciagyorsító módszer, a Richardson-extrapoláció egyes általánosított változatainak a tulajdonságait és alkalmazhatóságát tanulmányozzuk. Ezen numerikus eljárást a Dániai Euleri Modellbe beépítve egyes légszennyező anyagok szintjének jövőbeni alakulását is megvizsgáljuk. (Havasi Ágnes, Természettudományi Kar, Matematikai Intézet, Alkalmazott Analízis és Számításmatematikai Tanszék)

Richardson extrapolation and its application in air pollution modeling

Today, there is a growing demand from the society to assess the environmental impact of human activity, including the expected future development of air quality. To this aim we need to solve large systems of partial differential equations over a model domain covering the European continent, in dense resolution, over long periods of time, and taking into account a number of future climate scenarios. The solution of this problem requires the development and application of advanced numerical procedures. We investigate the properties and applicability of some generalized versions of a convergence acceleration method, the Richardson extrapolation. By incorporating this numerical procedure into the Danish Euler Model, we also examine the future evolution of the levels of certain air pollutants. (Ágnes Havasi, Faculty of Science, Institution of Mathematics, Department of Applied Analysis and Computational Mathematics)


Mátrix- és operátoregyenletek megoldásai

A mátrix- és operátoregyenletek megoldhatósága rendkívül népszerű probléma a matematika szinte minden területén, elsősorban azok széleskörű alkalmazhatósága miatt. Azonban például a gépi tanulás esetében a vizsgált objektumok csupán egy nagy (akár végtelen) dimenziójú tér pontjaival interpretálhatóak, így a tanuló algoritmus hátteréül szolgáló matematikai elmélet szempontjából nem elégséges pusztán véges dimenziójú terekre szorítkozni. Az egyenletek releváns megoldásainak előállítására több módszer ismert, ezek közül a leghatékonyabb az ún. Schur-komplementáció, melyet kutatásom során sikerült végtelen dimenziós terek esetére kiterjeszteni. Jelenleg a Schur-komplemens optimalizálási feladatokra történő alkalmazhatóságát vizsgálom. (Tarcsay Zsigmond, Természettudományi Kar, Matematikai Intézet, Alkalmazott Analízis és Számításmatematikai Tanszék)

Solving matrix and operator equations

Problems of solving various matrix and operator equations are very popular in mathematics especially because of their huge applications in many different fields. However, in machine learning, objects can often be interpreted as points of an infinite dimensional space, that means that it is not sufficient to confine merely to consider finite dimensional spaces. There are several methods for producing relevant solutions to equations, the most effective of which is the so-called Schur complementation. During my research I extended the concept of Schur complement to infinite dimensional spaces. Currently I am interested in the applicability of the Schur complement for optimization problems. (Zsigmond Tarcsay, Faculty of Science, Institute of Mathematics, Department of Applied Analysis and Computational Mathematics)


Differenciális entrópia számításán alapuló kísérlettervezés

Az égéskémiai kinetika területén a kísérlettervezés célja a részletes reakciómechanizmusokban szereplő paraméterek értékének pontos meghatározása úgy, hogy minél kevesebb kísérletet legyen szükséges elvégezni. Kutatásunk célja egy olyan algoritmus kidolgozása, melynek segítségével akár több száz lehetséges mérés közül kiválasztható a mérések azon minimális csoportja, ahol az elvégzett kísérletek a lehető legtöbb információt szolgáltatják a vizsgált rendszer paramétereinek becsléséhez. A megközelítés lényege, hogy számítjuk a modellparaméterek bizonytalanságának entrópiafüggvényét a mérések statisztikus hibája entrópiájának függvényében. A tervezett algoritmus meghatározza az egyes mérések szisztematikus és statisztikus hibáinak hatását is a modell paramétereinek becsült értékére. Az algoritmus kifejlesztését kémiai kinetikai modellek paramétereinek becslése motiválja, azonban a differenciális entrópia számításán alapuló kísérlettervezés a természettudományok számos más területén és ipari kutatásokban is alkalmazható. (Valkó Éva, Természettudományi Kar, Matematikai Intézet, Alkalmazott Analízis és Számításmatematikai Tanszék)

Design of experiments based on the calculation of differential entropy

In the field of chemical kinetics of combustion processes, the aim of experimental design is the accurate estimation of parameter values of reaction mechanisms based on the results of as few as possible experiments. The goal of my research is to create an algorithm, which is able to select the minimal number of experiments from even several hundred possible experiments to maximize the information for the estimation of the parameters of the investigated system. The essence of the method is that the entropy function of the uncertainty of model parameters is calculated from the entropy function of the statistical errors of measurements. The planned algorithm takes into account the effect of the systematic and statistical errors of the individual measurements on the estimated parameter values. Development of this algorithm is motivated by the estimation of parameters of chemical kinetic models, but the experimental design approach based on the calculation of differential entropy can also be applied to other areas of science and industry. (Éva Valkó, Faculty of Science, Institute of Mathematics, Department of Applied Analysis and Computational Mathematics )


A DiGeorge betegség diagnosztikája matematikai módszerekkel

A DiGeorge betegség egy veleszületett, a harmadik és negyedik garattasak fejlődésének zavara, a 22q11 mikrodeleciós szindróma része. A betegség örökletes, tünetek általában generációról súlyosbodnak, s a fiatalabb generációkban akár korai halálhoz is vezethetnek, ezért fontos a betegség korai észlelése akár már idősebb generációban, és kezelése.  Biológusokkal közreműködve olyan konzervatív módszer kifejlesztésén dolgozunk, mely a páciens őssejtjeiből növesztett idegsejthálózat kálcium jeleinek mikroszkópos intenzitás vizsgálatán alapul. A módszer előnye, hogy a mintavételezés egyszerű és biológia vizsgálat viszonylag alacsony költségű. A mért adatokat ezután statisztika és mesterséges intelligencia módszereivel elemezzük és klasszifikáljuk.(Kornyik Miklós, Természettudományi Kar, Matematikai Intézet, Valószínűségelméleti és Statisztikai Tanszék)

Mathematical diagnosis of the DiGeorge syndrome

DiGeorge syndrome, also known as 22q11.2 deletion syndrome, is a disease caused by the deletion of a small segment of chromosome 22. It is a hereditary disease, where the severeness of the symptoms increases along generations, in worst cases leading to premature death. Therefore it is vital to identify the syndrome in potential patients as soon as possible in order to provide them with the appropriate treatment. Jointly with biologist, we are currently working on a conservative method, relying purely on the mathematical analysis of the calcium intensity signals of neural networks grown from the stem stem cells of patients, that is capable to identify the presence of the syndrome. The advantage of this method is its relative simpleness and cost efficiency. (Miklós Kornyik, Faculty of Science, Institute of Mathematics, Department of Probability Theory and Statistic)


Rekurzív sztochasztikus approximáció Kiefer-Wolfowitz algoritmussal

Ebben a kutatásban egy algoritmus hatékonyságát vizsgáljuk, amivel olyan folyamatokat optimalizálhatunk, amiket nem tudunk közvetlenül megfigyelni. Ez a gyakorlatban azt jelenti, hogy valamilyen okból a valódi adatokat nem látjuk, csak zajos méréseket tudunk végezni és ezek alapján kell az optimális döntéseket meghozni. A projekt keretein belül egy rekurzív sztochasztikus gradiens algoritmus konvergenciáját látjuk be és várható értékben vett hibájának nagyságára adunk becslést. (Tikosi Kinga, Természettudományi Kar, Matematikai Intézet, Valószínűségelméleti és Statisztikai Tanszék)

Recursive stochastic approximation with Kiefer-Wolfowitz algorithm

In this research we study the efficiency of an algorithm that helps us optimise processes which we cannot directly observe. In practice this means that, for some reason, we cannot see the real data, we can only take noisy measurements and we need to choose the optimal decision using these. In this project we prove the convergence of a recursive stochastic gradient scheme and give an estimate of the size of the expected error. (Kinga Tikosi, Faculty of Science, Institute of Mathematics, Department of Probability Theory and Statistic)


Riemann-sokaságok a mélytanulásban

A sokaságokon való tanulás (manifold learning) egy standard nemlineáris dimenzióredukciós megközelítés a gépi tanulás területén. A Riemann-sokaságok olyan lokális plusz struktúrával ellátott sokaságok, melyeken az extra adatstruktúra segítségével távolságok és irányok kijelölésére is van mód. A Riemann-sokaságok iránti érdeklődés a gépi-, ezen belül a mélytanulásban újabb keletű az első szisztematikusabb vizsgálódások 2017 körül indultak be. Kutatásaimban a Riemann-sokaságok lehetséges alkalmazásait vizsgálom a mélytanulás területén. (Lakos Gyula, Természettudományi Kar, Matematikai Intézet, Geometriai Tanszék)

Riemannian manifolds in deep learning

Manifold learning is a standard approach to non-linear dimensionality reduction in machine learning.   Riemannian manifolds are manifolds endowed with additional local structure, where distances and directions can be specified. The first more systematic investigations in Riemannian manifolds in machine learning, and, in particular, deep learningnt started around 2017. In my research, I investigate possible applications of Riemannian manifolds in the area of deep learning. (Gyula Lakos, Faculty of Science, Institute of Mathematics, Department of Geometry)


Differenciálgeometriai kutatások a Lorentz-sokaságok területén, alakmeghatározás autonóm közlekedésben

Kutatásunk tárgya az univerzumban létező speciális hiperfelületek, azaz a matematikai horizontok (mint pl. a fekete lyukak eseményhorizontja) és ezek differenciálgeometriai tulajdonságai. Leírtuk egy ilyen horizont differenciálgeometriai struktúrájának időbeli változását. Ebben a léptékben a másik érdekes objektum a téridő konform határa (amennyiben ez létezik). Megpróbálunk a fényszerű geodetikusokkal olyan eszközöket létrehozni, melyek áttételesen jó görbületi feltételek esetén biztosítják, hogy a konform határ létezzen és le tudjuk írni annak struktúráját. Az emberibb léptékben fényképrekonstrukciós problémákkal foglalkozunk. A célunk az volt, hogy a felvételen látható pillanatnyi sebességvektormezők segítségével olyan rekonstrukciós metódusokat dolgozzunk ki, melyekhez nem kellenek bonyolult számítási eljárások, pl. egy pontról eldöntsük, hogy lehet-e pár másik adott pont síkjában. Sikerült egy olyan eljárást találni, mely csupán a pillanatnyi sebességeket használja és eldönti ezt a problémát anélkül, hogy a felvételen látható objektumokat nehézkes eljárásokkal rekonstruálná. Ezzel az eljárással megtalálhatjuk egy objektum lapjait, a látható objektumok összefüggőségi komponenseit, vagy eldönthetjük, hogy egy út eltér-e egy síkfelülettől. (Szeghy Dávid, Természettudományi Kar, Matematikai Intézet, Geometriai Tanszék)

Research on Lorentz manifolds, Photogrammetry and autonomous driving

The large-scale model we are interested in is the universe and its special hypersurfaces. We investigated mathematical horizons (e.g. black hole horizons) and their inner differential geometrical structure. We could describe how the differential structure can change over time. The other object is the possible mathematical conformal boundary of a space-time model. We try to develop a method which uses the light-like geodesics to understand under what circumstances the conformal boundary exists and how to reconstruct its differential geometrical properties. On the more human scale we investigate photogrammetrical problems. Our aim was to detect points which can lie in the same plane as same given points. We found a method which uses the velocity vectors of the points to decide this problem without heavily reconstructing the whole scene. This method can help to find faces of an object, connected components on the recording, detect deviations of the road from a simple plane. (Dávid Szeghy, Faculty of Science, Institute of Mathematics, Department of Geometry)


Fuglede sejtés, CI-csoportok, befoglaló háromszögek

Fuglede sejtése azt fogalmazza meg, hogy egy halmaz az Euklideszi térben pontosan akkor parkettáz, ha spektrális. Az első egy geometriai fogalom, a másik az, hogy milyen halmazokon tudunk Fourier analízist csinálni. Ez a második alkalmazás szempontjából nagyon fontos, hisz ez többek között azt is jelenti, hogy mikor tudunk hangokat jól komponensekre bontani. Továbbá képdeldolgozásban is alapvető eszköz a Fourier analízis. A CI csoportok problémája egy gráf izomorfizmus probléma. Szimmetrikus gráfokról, még pontosabban Cayley gráfokról szeretnénk hatékonyan eldönteni mikor izomorfak, ehhez csoportelméleti eszközöket felhasználva. Nagy hálózatok építése során rettentő hasznos. Minden egyes háromszögre megkerestük a legkisebb befoglaló egyenlőszűrú háromszöget, ami általában is egy kérdés konvex alakzat-párokra. Beláttuk Nandukamar sejtését Ennek egy kép elemeinek klaszterezésénél van nagy jelentősége. (Somlai Gábor, Természettudományi kar, Algebra és Számelmélet Tanszék)

Fuglede's conjecture and CI-groups

Fuglede conjectured that a set in the $n$ dimensional Euclidean space is a tile if and only if it is spectral. Tiling is a notion of geometry while the fact that a set is spectral means that we can efficiently use the tools of Fourier analysis. The latter is a key image processing tool and it was originally used to write continuous function as an infinite sum of sine and cosine waves, meaning to 'decompose' music into its components. The problem of CI-groups is a graph isomorphism problem. It deals with symmetric graphs. More precisely with Cayley graphs of the same group. We would like to find an efficient way to find the isomorphism classes of Cayley graphs of the same groups, using tools of group theory. This is useful in building large networks. Given two convex bodies, $T'$ and $T$, in the plane, it is not easy to decide whether there is a rigid motion that takes $T'$ into a position where it covers $T$. We proved that every minimum area isosceles triangle containing a given triangle $T$ shares a side and an angle with $T$. This result might have useful application in image clustering. (Gábor Somlai, Faculty of Science, Institute of Mathematics, Department of Algebra and Number Theory)


Reprezentációelméleti és számelméleti kutatások, Langlands-programok

A (p-adikus) Langlands program célja Galois-reprezentációk megfeleltetése automorf formákkal, melynek segítségével számelméleti tételek bizonyíthatók. Ennek egy példája a Fermat-sejtés Wiles-féle bizonyítása, az elmélet ebből is nőtt ki a 2000-es években. Az aritmetikailag izgalmas objektum a Galois-reprezentáció (pl. elliptikus görbékhez is rendelhető); az automorf formák pedig rendkívül hatékony, komplex függvénytani eszközök, mivel rengeteg szimmetriájuk van. Kutatásunk nagyrészt egy összekötő kapocs, a többváltozós (φ,Γ)-modulusok elméletének kidolgozása és ennek alkalmazása más területeken is. Ezen túl foglalkoztunk prím geodetikusok leszámlálásával aritmetikai sokaságokon, illetve centrális egyszerű algebrák explicit izomorfizmusaival is. Utóbbiaknak kriptográfiai alkalmazása lehetséges. (Zábrádi Gergely, Természettudományi Kar, Matematikai Intézet, Algebra és Számelmélet Tanszék)

Research in representation and number theory, Langlands-programmes

The goal of the (p-adic) Langlands programme is to match Galois representations with automorphic forms in order to prove theorems in Number Theory. One of the examples is Wiles' proof of Fermat's Last Theorem - the theory grew out of this in 2000s. The object of arithmetic interest is the Galois representation (eg. these can be attached to elliptic curves, too); automorphic forms are, on the other hand, powerful complex analytic tools since they have lots of symmetries. Our research is mostly to develop the theory of certain connecting objects, multivariate (φ,Γ)-modules, and their applications to other areas. Apart from that we have been dealing with counting prime geodesics on arithmetic manifolds and with explicit isomorphisms of central simple algebras. The latter has applications to cryptography. (Gergely Zábrádi, Faculty of Science, Institute of Mathematics, Department of Algebra and Number Theory)

 


2020.02.25.