Im Archiv der Gene

Wie das TU-Darmstadt-Start-up P2P Bio aus biologischer Datenflut brauchbares Wissen macht

2026/03/19 von

Milliarden DNA-Datensätze lagern heute in öffentlichen Archiven. In ihnen stecken womöglich neue Enzyme für Medikamente, Waschmittel, Lebensmittel, Biokraftstoffe oder klimafreundlichere Produktionsprozesse. Das Problem ist jedoch, dass die Daten zwar vorhanden sind, aber erst dann hilfreich sind, wenn jemand das Richtige in ihnen findet. Das Start-up P2P Bio aus dem Umfeld der TU Darmstadt hat deshalb eine Suchmaschine entwickelt.

Analyse von Proteinstrukturen mithilfe von 3D-Modellen am Computer, um Erkenntnisse für die biotechnologische Forschung zu gewinnen. (KI-generiertes Symbolbild)

In der modernen Biologie gibt es einen eigentümlichen Widerspruch: Noch nie konnte die Menschheit so schnell und so günstig Erbgut lesen. Und doch fällt es schwer, aus dieser Fülle das Brauchbare herauszufiltern.

Weltweit entstehen unablässig neue Sequenzdaten. Labore lesen die DNA von Bakterien, Pilzen, Pflanzen, Viren und Mikroorganismen aus Böden, Meeren, Kläranlagen oder heißen Quellen aus. Öffentliche Datenbanken füllen sich mit Abermilliarden Buchstabenfolgen: A, C, G, T – vier Zeichen, aus denen alles Leben geschrieben ist. Wer darin ein bestimmtes Protein sucht, ist oft wie jemand, der in einem Lager voller unsortierter Zettel nach einer bestimmten Information sucht.

Genau hier setzt P2P Bio an. Das am 20. November 2025 gegründete junge Unternehmen besteht aus zwei Co-Foundern, die sich aus dem Umfeld der TU Darmstadt kennen. Prof. Dr. Johannes Kabisch ist heute Professor für Synthetische Biologie an der norwegischen NTNU und Aron Eiermann ist Informatiker mit TU-Darmstadt-Hintergrund und, wie er selbst sagt, „Bioinformatiker im Herzen“. Gemeinsam bauen sie an einer Suchmaschine für Proteine und Enzyme – jedoch nicht für das Internet, sondern für Forschende und Biotech-Unternehmen. Ihre Plattform heißt „axíōma”. Sie soll ein sehr praktisches Problem lösen: die richtige Nadel im biologischen Heuhaufen finden.

Der Engpass

Was P2P Bio macht, lässt sich einfach erklären. In der Biotechnologie werden ständig neue Proteine und Enzyme benötigt: für Medikamente, Diagnostik, industrielle Prozesse, die Lebensmittelproduktion, Impfstoffe oder nachhaltigere Herstellungsverfahren.

Enzyme sind molekulare Maschinen. Sie beschleunigen Reaktionen, bauen Stoffe um und machen Prozesse effizienter. Viele Industrien suchen deshalb nach Molekülen, die mehr leisten als bisher bekannte, beispielsweise stabiler sind, bei höheren Temperaturen arbeiten, weniger Nebenprodukte erzeugen oder leichter herzustellen sind. Solche Kandidaten findet man heute nicht mehr nur im Labor. Sie stecken längst in riesigen öffentlichen Datensammlungen, die zwar theoretisch zugänglich sind, in der Praxis jedoch oft verborgen bleiben. „Das Problem, das wir lösen, ist, dass man in der Biotechnologie regelmäßig neue Proteinsequenzen für neue Produkte und Anwendungen finden muss“, sagt Johannes Kabisch. „Vereinfacht gesagt, haben wir eine Suchmaschine dafür geschrieben.“ Der Unterschied zu bisherigen Lösungen bestehe vor allem darin, „dass sie einfach eine sehr, sehr, sehr viel größere Datenmenge durchsucht“.

Das klingt technisch, ist aber wirtschaftlich relevant. Denn je länger die Suche dauert, desto teurer wird Innovation. Junge Unternehmen können nicht jahrelang im Labor auf gut Glück testen. Mittelständler haben oft keine eigene Bioinformatik-Abteilung. Und selbst akademische Arbeitsgruppen verfügen selten über die erforderliche Rechenleistung und das Personal, um Petabytes an Sequenzdaten sinnvoll zu durchforsten.

Kabisch kennt diese Lage aus der Forschung. Er arbeitet seit Jahren an mikrobiellen Zellfabriken, also der Idee, Mikroorganismen so zu nutzen oder umzubauen, dass sie wertvolle Stoffe produzieren. Medikamente, Feinchemikalien oder industrielle Vorprodukte. Wer in diesem Feld arbeitet, braucht immer wieder neue Bauteile des Lebens und stößt schnell an eine Grenze, die nicht biologisch, sondern informatisch ist. „Die Datenmenge ist sehr groß, also immens groß“, sagt Kabisch. „Sodass ein normaler Wissenschaftler zu Recht davon überfordert ist.“

Das Lesen

Komplexe Proteinstruktur mit einer zentralen blauen Alpha-Helix, umgeben von farbigen Aminosäureketten, dargestellt in einer detaillierten Kugel-Stab- und Bändermodell-Visualisierung. (KI-Generiertes Symbolbild)
Komplexe Proteinstruktur mit einer zentralen blauen Alpha-Helix, umgeben von farbigen Aminosäureketten, dargestellt in einer detaillierten Kugel-Stab- und Bändermodell-Visualisierung. (KI-Generiertes Symbolbild)

Um dies zu verstehen, lohnt sich ein Blick auf die Sequenzierung selbst. Man kann sich das Genom eines Lebewesens wie ein riesiges Buch vorstellen. In diesem Buch steht vereinfacht gesprochen, wie ein Organismus aufgebaut ist und wie er funktioniert.

Geschrieben ist es allerdings nicht in Wörtern und Sätzen, sondern in einer Sprache aus vier Buchstaben: A, C, G und T. A, C, G und T bezeichnen die Basen der DNA. Sequenzieren bedeutet, dieses Buch Buchstabe für Buchstabe zu lesen und in digitale Daten zu übersetzen.

Die Idee ist nicht neu. Die ersten Verfahren stammen aus den 1970er Jahren. Lange Zeit war das Sequenzieren mühsam, teuer und langsam. Ein großer Meilenstein war das Humangenomprojekt, das von 1990 bis 2003 lief: Erstmals wurde das gesamte menschliche Genom entschlüsselt – ein wissenschaftlicher Kraftakt, der 13 Jahre dauerte und Milliarden kostete. Heute ist die Lage grundlegend anders. Moderne Verfahren des sogenannten Next-Generation Sequencing lesen Millionen kleiner DNA-Fragmente parallel. Die Technik wurde miniaturisiert, ist schneller und günstiger geworden. Was früher ein Großprojekt war, ist heute in vielen Laboren Routine.

Sequenzierung macht das Unsichtbare sichtbar. In der Medizin lassen sich seltene Erbkrankheiten aufspüren, da im genetischen Code nach „Tippfehlern“ gesucht werden kann. In der Onkologie hilft sie dabei, Tumore genauer zu charakterisieren und Therapien besser auszuwählen. In der Infektionsbiologie lassen sich Krankheitserreger identifizieren, Varianten verfolgen und Ausbrüche analysieren.

Die Corona-Pandemie hat diesen Wandel besonders deutlich gemacht. Als in Wuhan die ersten Menschen an einer unbekannten Lungenkrankheit erkrankten, war zunächst unklar, was der Auslöser war. Die Sequenzierung des Erregers ergab jedoch schnell, dass es sich um ein neuartiges Coronavirus handelte. Später konnten Varianten wie Delta oder Omikron nur deshalb so schnell erkannt werden, weil Labore weltweit Virusproben sequenzierten und Veränderungen im Erbgut nachweisen konnten. Auch die Entwicklung der mRNA-Impfstoffe beruhte entscheidend darauf, dass nicht erst physische Proben um die Welt geschickt werden mussten, sondern die digitale Sequenz des Virus genügte, um am Computer mit der Entwicklung zu beginnen.

Die Sequenzierung hat die Biologie in eine datenbasierte Wissenschaft verwandelt. Sie produziert jedoch auch Datenmengen, die ohne neue Werkzeuge kaum beherrschbar sind. Die Biologie kann heute lesen. Das Verstehen bleibt jedoch der Engpass.

Konzeptbild für Forschung und Entwicklung in Biotechnologie und Pharma: Analyse molekularer Daten und Wirkstoffforschung (Symbolbild)
Konzeptbild für Forschung und Entwicklung in Biotechnologie und Pharma: Analyse molekularer Daten und Wirkstoffforschung (Symbolbild)

P2P Bio ist aus genau dieser Lücke entstanden, nicht als klassisches Biotech-Unternehmen mit einem einzelnen Wirkstoff oder einem neuen Verfahren, sondern als Antwort auf ein Informationsproblem.

Was macht axíōma also konkret? Die Plattform sucht nicht nur in einigen bekannten Datenbanken, sondern in einer viel größeren Landschaft. P2P Bio spricht von mehr als 4,3 Milliarden Proteinen aus über 50 Quellen.

Diese Daten werden so aufbereitet, dass sie durchsuchbar und vergleichbar sind. Entscheidend ist dann der zweite Schritt. Denn eine große Suchmaschine allein löst das Problem noch nicht. Wer nach einer Anfrage 200.000 Treffer erhält, ist kaum klüger als zuvor. Genau hier setzt das an, was Kabisch im Interview „Cherry Picking“ nennt: das gezielte Herauspicken der passenden Kandidaten. „Das Problem ist, dass bei so einer Suche sehr, sehr viele Informationen rauskommen“, sagt er. „Und wir helfen dabei, das sogenannte Cherry Picking zu machen.“

Die Nutzer:innen sollen also nicht im Datenmeer ertrinken, sondern mit visuellen Filtern, Vorhersagen und Auswahlwerkzeugen arbeiten. Die Plattform bewertet Kandidaten danach, welche Eigenschaften sie wahrscheinlich mitbringen, zum Beispiel Stabilität, Eignung für bestimmte Bedingungen, Herstellbarkeit oder strukturelle Ähnlichkeit zu bekannten Proteinen. So wird aus einer langen Trefferliste eine Entscheidungsgrundlage. Der Mehrwert liegt dabei nicht nur in der Größe, sondern in der Auswahl. Aus Zufall wird Vorauswahl. Aus Vorauswahl wird Zeitgewinn.

Der Nutzen

Am anschaulichsten wird das bei Alltagsbeispielen. Johannes Kabisch nennt im Gespräch beispielsweise Waschmittel. Früher war viel Chemie nötig, um Flecken zu lösen. Heute enthalten viele Waschmittel Enzyme, die bestimmte Stoffe gezielt abbauen, sodass weniger Chemikalien benötigt werden. Die Packungen sind kleiner geworden, die Prozesse sind effizienter und die Produkte sind oft ressourcenschonender.

Ein anderes Beispiel sind mRNA-Impfstoffe. Um solche Vakzine herzustellen, benötigt man Enzyme, die bestimmte Reaktionen zuverlässig katalysieren. Je nachdem, unter welchen Bedingungen ein Herstellungsprozess abläuft, können ganz unterschiedliche Proteine interessant sein, etwa solche aus Organismen, die in heißen Umgebungen leben und deshalb besonders temperaturstabil sind.

Kabisch beschreibt genau diesen Ansatz: Wenn bekannt ist, dass ein Organismus aus einer heißen Quelle stammt, ist es naheliegend, dass seine molekularen Werkzeuge auch bei hohen Temperaturen funktionieren. Dann kann man gezielt nach entsprechenden Sequenzen suchen, statt im Labor über Monate oder Jahre viele Kandidaten blind zu testen.

Die Infrastruktur

Hinzu kommt die Frage nach der Infrastruktur wissenschaftlicher Daten. Viele Forschende arbeiten mit international etablierten öffentlichen Datenbanken, darunter mit Angeboten aus dem Umfeld der amerikanischen National Institutes of Health. Diese Systeme sind zwar enorm wichtig, aus Sicht vieler Nutzer jedoch nicht frei von Problemen: begrenzte Abdeckung, langsame Oberflächen, veraltete Benutzerführung und Abhängigkeit von öffentlicher Finanzierung. Kabisch weist im Gespräch darauf hin, dass politische Unsicherheit und Kürzungen in den USA die Arbeit mit solchen Infrastrukturen erschweren.

Das heißt jedoch nicht, dass wissenschaftliche Daten plötzlich verschwinden würden. Die internationale Datenlandschaft ist vernetzt, vieles wird gespiegelt und auch Europa und Japan spielen wichtige Rollen. Doch diese Episode zeigt, wie fragil selbst scheinbar selbstverständliche digitale Infrastrukturen sein können. Für P2P Bio ist das ein zusätzlicher Rückenwind. Nicht, weil öffentliche Wissenschaft scheitern soll, sondern weil die Menge und Komplexität der Daten Werkzeuge erfordern, die über das reine Speichern hinausgehen.

Die Gründer

Johannes Kabisch und Aron Eiermann lernten sich an der TU Darmstadt kennen. Kabisch war damals Professor an der TU Darmstadt, bevor er nach Norwegen wechselte. Eiermann studierte Informatik. Sie lernten sich über ein Praxisformat kennen, in dem studentische Teams für Arbeitsgruppen konkrete Softwareaufgaben lösen. Später schrieb Eiermann bei Kabisch seine Bachelorarbeit. Thema war unter anderem die Laborautomatisierung und Robotik, also die Frage, wie digitale Systeme im biologischen Alltag helfen können.

Der eine kam aus der Biotechnologie und brauchte bessere Werkzeuge für die Suche nach Proteinen. Der andere dachte in Datenstrukturen, Rechenzeit, verteilten Systemen und Kosten. Gemeinsam merkten sie, dass es dafür nicht nur einen wissenschaftlichen Bedarf, sondern auch einen Markt gibt.

Eiermann bringt Erfahrung mit skalierbaren Softwaresystemen, großen Proteindatenbanken, Lab Automation, wissenschaftlichem Cloud Computing und KI-Modellen ein. Kabisch bringt jahrzehntelange Erfahrung in der Proteinproduktion über verschiedene Organismen hinweg, ein internationales Netzwerk in der Biotech-Welt und Gründungserfahrung mit. P2P Bio ist nicht sein erstes Unternehmen. Typisch für diese Ausgründung ist die enge Verbindung zweier Disziplinen: Biotechnologie und Informatik sind hier keine Randbereiche, sondern gleichberechtigte Bausteine des Geschäftsmodells.

Das Geschäftsmodell

Die Zielgruppe von P2P Bio sind nicht nur Großkonzerne. Zwar ist der Markt riesig, doch der unmittelbare Bedarf ist oft gerade dort am größten, wo keine großen Informatikressourcen vorhanden sind: bei kleinen und mittleren Unternehmen sowie in akademischen Arbeitsgruppen. „Unser Hauptinteresse gilt KMUs, also kleinen und mittelständischen Unternehmen, sowie auf jeden Fall akademischen Arbeitsgruppen“, sagt Kabisch. Große Konzerne hätten häufig eigene Bioinformatik-Abteilungen. Viele kleinere Akteure können sich diese Expertise dagegen nicht dauerhaft leisten. P2P Bio versucht deshalb, Hochleistungsbioinformatik als Dienstleistung verfügbar zu machen: per Webinterface, als Software as a Service, mit unterschiedlichen Tiefen und Preismodellen – von der einzelnen Suche bis zum Abo.

Vielleicht ist es kein Zufall, dass diese Firma so unaufgeregt über sich spricht. In vielen Start-up-Erzählungen ist von Disruption die Rede, von radikalem Wandel und von Märkten, die erobert werden sollen. Bei P2P Bio ist der Ton nüchterner. Das passt zum Gegenstand. Wer Milliarden Proteine durchsuchbar macht, muss nicht laut werden, sondern zuverlässig sein.

Auch betriebswirtschaftlich wirkt die Geschichte pragmatisch. P2P Bio ist eigenfinanziert, also klassisch gebootstrappt, auch wenn Kabisch lieber von Unabhängigkeit spricht. Eine Förderung des Landes Hessen wurde beantragt, doch passte das EXIST-Programm nach eigener Einschätzung nicht gut zum Tempo und zur Situation der Gründung. Für die geschäftlichen Feinheiten, so Kabisch, brauche man vor allem eine solide Beratung. Nicht jeder Durchbruch beginnt mit einem Pitch Deck. Manchmal beginnt er damit, dass zwei Leute ein altes Problem neu rechnen.

Die Ordnung

Letztendlich geht es um etwas sehr Nüchternes: aus Daten eine Auswahl zu treffen. P2P Bio entwickelt kein Wundermolekül. Das Unternehmen baut ein Werkzeug, mit dem Forschende und Firmen schneller zu den richtigen Kandidaten kommen. Je billiger das Lesen von DNA wird, desto wichtiger wird diese Auswahl. Genau darin liegt das Geschäftsmodell von P2P Bio und damit auch seine Chance am Markt.