cynkra


Intelligently R

Wir integrieren AI in Daten- und Analyse-Workflows, entwickeln Open-Source-AI-Tools und bieten Infrastruktur-Support für R- und Posit-Umgebungen.

Unsere Leistungen


decorative background

Agentische Coding-Tools, die Code autonom schreiben, refaktorisieren und debuggen, plus Inline-Autocomplete für schnelleres Arbeiten. Wir richten Claude Code, GitHub Copilot, Cursor oder lokale Alternativen ein und haben Erfahrung mit der Integration in R/Posit und eingeschränkte Verwaltungsumgebungen.

Coding

decorative background

Interne Dokumente mit AI durchsuchbar machen. Antworten basieren auf Ihren Daten, nicht auf generischen Texten. Vollständig lokaler Betrieb möglich, sodass Daten Ihre Server nie verlassen. Aufgebaut mit ChromaDB, DuckDB und rchroma, unserem Open-Source-R-Package.

Suche

decorative background

Stellen Sie Fragen an Datenbanken und Datensätze in natürlicher Sprache. Erstellen Sie Grafiken, filtern Sie Daten, generieren Sie Zusammenfassungen, indem Sie beschreiben, was Sie möchten. Auch ohne Programmierkenntnisse nutzbar. Basiert auf blockr.ai, unserem Open-Source-Framework.

Analyse

So arbeiten wir

Vom ersten Gespräch bis zum laufenden System.


Verstehen

1

Discovery

Wir besprechen Ihre Ziele, finden heraus, wo AI hilft, und schauen uns Ihre Rahmenbedingungen an: Hardware, Budget, Datenschutz und bestehende Infrastruktur.

Entwerfen

2

Design

Wir wählen das richtige Setup: Cloud, Self-hosted oder hybrid. Wir bestimmen die Tools und Modelle, die zu Ihrem Anwendungsfall und Sicherheitsbedarf passen.

Liefern

3

Umsetzung

Wir richten das System ein, integrieren es in Ihre Umgebung und schulen Ihr Team. Wir bleiben für laufenden Support, Anpassungen und Weiterentwicklung verfügbar.

Fokus-Projekt


rchroma provides an R interface to ChromaDB, enabling vector database operations directly from R. It supports embedding storage, retrieval, and similarity search for AI applications.

Key Features

  • Vector database operations in R
  • Storage and retrieval of embeddings
  • Similarity search for AI applications
  • Integration with R machine learning workflows
open source project

Our ask package lets you interact with AI models directly from R, going beyond simple text responses.

Key Features

  • Script and documentation editing in place
  • Code and test generation
  • Package documentation querying
  • Natural language data processing
  • Support for both cloud (GPT-4) and local (LLama) models
open source project

blockr.ai extends our blockr framework with AI capabilities for natural language-driven data analysis.

Key Features

  • AI-powered plot creation through natural language
  • Intelligent data transformations
  • Integration with leading AI models
  • Composable blocks for flexible workflows
  • Seamless integration with the blockr ecosystem
open source project

Cloud vs. Lokal


  • Cloud mit Zero Data Retention

    Claude API, GitHub Copilot Business, Azure OpenAI. Beste Performance, keine Daten beim Anbieter gespeichert.

  • Self-Hosted LLMs

    Modelle auf Ihrer eigenen Infrastruktur mit Ollama, Open WebUI oder dedizierten GPU-Servern. Daten bleiben in Ihrem Netzwerk.

  • Hybrid

    Cloud für unkritische Aufgaben, lokale Modelle für sensitive Daten. Wir nutzen eine Entscheidungsmatrix, um jeden Anwendungsfall gegen Datensensitivität, Qualitätsanforderungen und Budget abzuwägen.

AI-Einblicke

Praktische Beispiele für die Arbeit mit LLMs in R

post image

David Schoch, Christoph Sax /

R with RAGS: An Introduction to rchroma and ChromaDB

LLM/RAG/R

Large language models (LLMs) are developing rapidly, but they often lack real-time, specific information. Retrieval-augmented generation (RAG) addresses this by letting LLMs fetch relevant documents during text generation, instead of just using their internal—and potentially outdated— knowledge.

post image

Christoph Sax /

Playing with AI Agents in R

LLM/R

It's local LLM time! What an adventure it has been since I first started exploring local LLMs. With the introduction of various new Llama models, we now have impressive small and large models that run seamlessly on consumer hardware.

post image

Christoph Sax /

Playing with Llama 3.1 in R

LLM

Meta recently announced Llama 3.1, and there's a lot of excitement. I finally had some time to experiment with locally run open-source models. The small 8B model, in particular, produces surprisingly useful output, with reasonable speed.