Small Models, Big Impact: Efficient AI Beyond Giant LLMs – AI Meetup az ELTE Informatikai Karon
Superlinked AI meetup
FEB18
EIT Digital Budapest Co-Location Centre – Main Hall (1117 Budapest, Bogdánfy utca 10/a, az iroda bejárata a teniszpályák mellett található)

Az ELTE Informatikai Kar Mesterséges Intelligencia Tanszéke, az NJSZT MI Szakosztály társszervezésében, valamint a Superlinked startup közreműködésével Small Models, Big Impact: Efficient AI Beyond Giant LLMs címmel szakmai meetup eseményt szervez az AI és a nagy nyelvi modellek iránt érdeklődők számára.

Az esemény különleges betekintést nyújt a Superlinked készülő, nyílt forráskódú small-model inference megoldásába, miközben bemutatja a nagyméretű, költséges alapmodellek (LLM-ek) hatékony alternatíváit: a gyors, erőforrás-takarékos és valós környezetben is jól deployolható kis és specializált nyelvi modelleket (SLM-eket).

Ipari és akadémiai nézőpontból járjuk körül, hogyan alkalmazhatók ezek a megoldások nagy léptékű keresési és adatfeldolgozási feladatokra, valamint a magyar nyelvű NLP rendszerek fejlesztésére – hatékonyan, megfizethetően, akár saját infrastruktúrán.

Az est során előremutató szakmai előadások, gyakorlati tapasztalatok és kötetlen networking várja az érdeklődőket pizza és frissítők mellett.

  • Időpont: 2026. február 18. (szerda), 17:30

  • Helyszín: EIT Digital Budapest Co-Location Centre – Main Hall (1117 Budapest, Bogdánfy utca 10/a, az iroda bejárata a teniszpályák mellett található)

A részvétel ingyenes, de előzetes regisztrációhoz kötött.

Az esemény angol nyelven zajlik.

 

Program

17:30–18:00
Daniel Svonava (CEO, Superlinked) – 1 million tokens per second with Small Language Models on the cheap
Az előadás bemutatja, hogyan építhetők nagy léptékű AI-alapú keresési és adatfeldolgozási rendszerek kis nyelvi modellekre építve, valamint betekintést nyújt a Superlinked készülő, nyílt forráskódú small-model inference megoldásába.

18:00–18:30
Csibi Zsolt (PhD hallgató, ELTE IK MI Tanszék) – Scaling Hungarian NLP: Continual LLM Adaptation and Next-Gen BERT Encoders
Az előadás első részében bemutatásra kerül a Racka-4B, egy lightweight, continually pretrained Hungarian LLM. A második rész a next-generation Hungarian BERT-style encoder models fejlesztésére fókuszál, különös tekintettel a keresési és osztályozási feladatokra.

18:30–19:30
Networking pizza és frissítők mellett

 

Az előadások részletes absztraktjai angolul
Daniel Svonava, CEO, Superlinked – 1 million tokens per second with Small Language Models on the cheap

Did you know that there are *millions* of machine learning models available for free on the internet? You can just download the weights & code of models that perform text, image and audio generation, search, classification, OCR, sequence prediction, object detection and 100s of other tasks. In the last 6 months HuggingFace alone added half a million models. This begs a question - why are consumers & companies paying 10s of Billions to ChatGPT, Opus & Gemini instead of deploying 100s of specialized open source models on their own?

At Superlinked, we've built large scale AI-powered search and data processing systems with SLMs for the last few years, always relying on others for inference. This was painful because cloud & inference providers do not care about SLMs - they all focus on supporting the latest 500B parameter LLM instead, because that is where they make more money. It's time to fix that.

Join us for a preview of Superlinked's upcoming open source product focused on small model inference, learn how to select the right models for your tasks and what it takes to deploy them efficiently on a handful of GPUs right in your own cloud, focused on search & data processing.

Zsolt Csibi, PhD student, ELTE IK AI – Scaling Hungarian NLP: Continual LLM Adaptation and Next-Gen BERT Encoders

In the first part, we introduce Racka-4B, a lightweight, continually pretrained Hungarian LLM designed to close the resource gap between Hungarian and high-resource languages such as English and German. Instead of training from scratch, Racka uses parameter-efficient continual pretraining with LoRA on a Qwen3-4B backbone, making the full training recipe practical even on an A100 (40GB) Hungarian HPC cluster.

After adapting the tokenizer to better match Hungarian vocabulary, we achieved 47% faster token generation compared to the base model. Despite its relatively small size, Racka delivers competitive performance against the current best Hungarian LLM on few-shot evaluation benchmarks, and even achieves slightly better results on Hungarian generation and reasoning datasets.

In the second part, we present our progress on training modern encoder models for Hungarian. We aim to develop the next generation of Hungarian BERT-style models based on next-generation encoder architectures such as DeBERTa and NeoBERT. Using the same large-scale Hungarian dataset as Racka, we focus on building strong encoder models for retrieval, classification, and other downstream NLP tasks, aiming to outperform current Hungarian BERT baselines.