Required Skills and Experience
Python (3+ років досвіду)
– Впевнене володіння сучасним Python 3.x (async/await, контекст-менеджери, генератори)
– Написання чистого, модульного коду за «Pythonic» стандартами
– Практика ООП (класи, наслідування, композиція), знання патернів (Strategy, SOLID-принципи)
– Асинхронне програмування (asyncio, aiohttp) та системи черг (Celery/Redis)
– Кастомізація й розширення сторонніх бібліотек (Docling-подібні модулі)
Machine Learning & RAG
– Fine-tuning ембеддінгів (Transformer-моделі) та досвід роботи з RAG-системами
– Тренування cross-encoder ранжувальників (contrastive/pairwise loss) для reranking
– Адаптація великих мовних моделей (GPT, LLaMA-подібні) під специфічні кейси з використанням LoRA/PEFT
– Оцінка якості генерації (BLEU, ROUGE, human-eval)
NLP & Retrieval
– Передобробка тексту: токенізація, стемінг, лемматизація, очищення «шуму»
– Парсинг PDF та витяг структури (фрагменти, таблиці) з неструктурованих документів
– Налаштування domain-specific правил (HR-термінологія, стоп-слова, скорочення)
– Fine-tuning domain-specific ембеддінг-моделей (Sentence-BERT), індексація у FAISS, гібридний vector+BM25 пошук
– Класифікація та категоризація (Logistic Regression, Transformers)
– Оцінка precision/recall, аналіз latency і throughput у продакшні
Generative AI
– Проєктування й версіонування prompt-ланцюгів (one-shot/few-shot, Pydantic-схеми)
– Інтеграція з LLM-API (OpenAI, Anthropic Claude та ін.) з batching і управлінням rate-limit
– Chain-of-Thought / структурований вивід
Deep Learning
– Практика з Transformer-підходами для NLP/GPT-моделей
– Робота з attention-механізмами та embedding-репрезентаціями
– GPU-оптимізація (CUDA, mixed-precision training)
Data Engineering
– Створення ETL-пайплайнів (Pandas, Polars, Airflow, Dagster)
– Очищення, дедуплікація й feature engineering текстових та табличних даних
MLOps & CI/CD
– Розгортання й моніторинг моделей із MLflow, DVC, Weights & Biases, Kubeflow
– Налаштування конвеєрів GitHub Actions + Docker + Kubernetes
– Конфігурація A/B-тестування, RunConfig-наборів, метрики якості й latency
API & інтеграції
– Розробка REST/GraphQL-сервісів (FastAPI, Flask) для inference
– Інтеграція моделей у бекенд/фронтенд та зовнішні сервіси
Хмарні платформи
– Досвід із AWS (SageMaker, Lambda, S3), GCP (Vertex AI, BigQuery) або Azure ML
– Оптимізація витрат на inference і зберігання моделей
Would be a plus
досвід у HR-домені, знання та практична участь у створенні production-рішень на базі RAG/LLM
Responsibilities
- Проєктувати та оптимізувати AI-модулі для аналітики й візуалізації ключових показників із різних джерел даних
- Розробляти “розумні” алгоритми автоматизованої комунікації з користувачами та кандидатами з персоналізованими шаблонами повідомлень
- Створювати механізми пріоритизації інформаційних одиниць на основі комплексних метрик релевантності
- Здійснювати адаптацію й донавчання великих мовних моделей для генерації стислих і інформативних звітів та відповідей
- Організовувати end-to-end обробку даних: від збору й очищення до передачі в ML-модулі з урахуванням доменної специфіки
- Налаштовувати інфраструктуру для масштабованого тренування та inference моделей із контролем продуктивності та вартості
- Будувати CI/CD-конвеєри для автоматизації тестування, деплою та моніторингу моделей у продакшені
- Розробляти й версіонувати набори інструкцій (prompt-контент) та інтегрувати ML-сервіси через API у бізнес-логіку продукту
- Співпрацювати з продуктовими та аналітичними командами для формування пріоритетів, проведення експериментів і оцінки бізнес-цінності рішень.
We offer
- Full remote;
- Конкурентна та стабільна заробітна плата;
- Оплачувана відпустка (20 робочих/28 календарних днів) та лікарняні (7 днів);
- Регулярні корпоративні онлайн-заходи;
- Робота в злагодженій та результативній команді, яка готова масштабуватися разом з тобою;
- Відкрита та приємна робоча атмосфера, прозора взаємодія.