Realität trifft auf Mythos

Eine Sache, die mich die Tage echt beschäftigt, ist das neue KI-Modell Claude Mythos Preview von Anthropic. Nun bin ich grundsätzlich echt kein Fan der aktuellen KI-Entwicklung. Als zusätzliches Werkzeug mag der Einsatz absolut sinnvoll sein. Aber diese Entwicklung ist besorgniserregend und haut mich aus den Socken.

Um was geht es konkret? Ich versuche in den folgenden Zeilen meine Gedanken zu sammeln und ein paar Quellen zu hinterlegen. Dabei geht der Fokus nicht um die komplette Welt der SysAdmins. Vielmehr betrachte ich meine eigenen Berührungspunkte im beruflichen Alltag.

Ausgangslage

Vor etwa drei Wochen hat Anthropic das eben erwähnte KI-Modell Mythos vorgestellt und in einem Blog-Beitrag mitgeteilt dass das Ding erstmal nicht veröffentlicht wird. Grund: Das Modell hat bei der Suche nach Schwachstellen tausende riskante Zero-Day-Lücken in allen Betriebssystemen und Browsern identifiziert, die bis zu 27 Jahre im Code enthalten sind. Details dazu sind im Heise-Artikel Anthropics neues KI-Modell Mythos: Zu gefährlich für die Öffentlichkeit gut dargestellt.

Vereinfacht bzw. zusammenfassend lässt sich sagen, dass das KI-Modell mit Codezeilen gefüttert wurde. Das System ist dann in mehreren Anläufen, durch geschicktes Kombinieren auf die Lücken gestoßen. War die Software Closed-Source, dann hat Mythos die Fähigkeit Reverse-Engineering durchzuführen und damit ebenfalls Schwachstellen entdeckt. Egal auf welchem Weg die Lücken gefunden wurden … es wurden wohl gleich noch die funktionierenden Exploits geliefert. Unfassbar … so wurde auch eine 27-Jahre alte Lücke in OpenBSD gefunden. Genau in einem der Systeme, das eigentlich von vorne bis hinten auf Sicherheit getrimmt ist.

Projekt Glasswing

Mythos Preview wird derzeit für das Projekt Glasswing eingesetzt. Damit haben nur vereinzelte Software-Schmieden und Hardware-Hersteller Zugriff auf das KI-Modell um die Branche auf die Zukunft Gegenwart vorzubereiten. Genannt werden auf der Webseite des Projekts Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, the Linux Foundation, Microsoft, NVIDIA und Palo Alto Networks. Darüber hinaus werden 40 weitere, nicht näher benannte Organisationen erwähnt, die sich ebenfalls im Projekt beteiligen. Das zeugt von verantwortungsbewusstem Handeln und ist begrüßenswert.

Aber … bin ich jetzt doof? Was ist denn mit dem Rest der Welt? Wird der vergessen, oder sind das Empfänger in der zweiten Reihe? Ich kann das schlecht beurteilen. Aber Fragen wirft das ja schon in mir auf. Vor allem ist davon auszugehen, dass andere KI-Schmieden in den kommenden Monaten ebenfalls signifikante Leistungssteigerungen erreichen werden. Es ist also nur eine Frage der Zeit, wahrscheinlich weniger Monate, bis Angreifer so ein mächtiges Werkzeug aktiv nutzen können.

Folgen für die Security

Ich kann den kompletten Impact mit Sicherheit nur unvollständig beurteilen. Der Anthropic-Blogpost geht darauf ein und erklärt unter anderem auch, warum Angreifer kurzfristig im Vorteil, Verteidiger langfristig stärker profitieren und die Übergangsphase kritisch ist.

Das ist plausibel. Ich brauche für mich noch weitere, differenziertere Einschätzungen von anderen Institutionen. Egal wie … ich betreibe beruflich wie privat zahlreiche Server und für die bin ich (mit) verantwortlich. Diese Leistungssteigerung der KI-Modelle, ändert das bisherige Arbeiten in Zukunft fundamental. Durch meine Brille hat das folgende Gründe:

  • Die Anzahl der Sicherheits-Patches wird sich massiv erhöhen. Das ist natürlich gut so. Aber das Einspielen der Patches muss deutlich schneller gehen. Ein Vertrauen darauf, dass das Update einen Dienst betrifft, der z. B. nicht im Internet exposed ist, ist kein Argument mehr das Update noch aufzuschieben.
  • Patches, die bereit gestellt werden, sind ab dem Moment der Veröffentlichung ein Enttarnen der Schwachstelle und führt in Minuten zu einem verwendbaren Exploit. Das bedeutet: zwischen Veröffentlichung des Patches und dem Exploit muss ich (in Sekunden) dann all meinen Zoo an Servern aktualisiert haben. Der Trend ist nicht neu und ist auf der Webseite https://zerodayclock.com gut beschrieben.
  • Dazu kommt ein weiteres Problem: Bisher werden Lücken auf Linux-Servern über reguläre Paket-Updates geschlossen. Selten kommt es vor, dass ich ein Problem zugespielt bekomme, an dem ich tatsächlich selbst einen Patch eigenhändig einspiele, bevor dieser im regulären Paket-Update landet. Das bedeutet am Beispiel einer Linux-Distribution, dass nach der Aktualisierung einer Software, der jeweilige Paket-Betreuer diese aus dem Upstream-Repo holt, die Software neu paketiert, testet und dann veröffentlicht. Dadurch wird es zu einer weiteren Verzögerung kommen, bevor ich mit apt, pacman, yum, dnf oder zypper den begeherten Fix auf mein System bekomme.

Fazit

Ich habe keine Ahnung wie das Problem langfristig solide gelöst werden kann. Zumal in den kommenden Jahren immer leistungsfähigere KI-Modelle veröffentlicht werden. Wenn die jeweilgen Unternehmen hinter den KI-Modellen keinen verantwortungsvollen Umgang betreiben (wie hier mit dem Projekt Glasswing), dann rauschen wir mit Vollgas in Probleme hinein. Derzeit hilft nur Augen und Ohren offen halten und die eigenen Chefetagen darauf vorzubereiten, dass eine Einsparung bei den Admins keine gute Idee ist.

Wahrscheinlich müssen gravierende Änderungen implementiert und die eigene Infrastruktur auf den Prüfstand gestellt werden. Inwieweit dann eine solide Strategie zu resilienteren Umgebungen führen werden wir sehen. Ich befürchte aber, dass es erstmal zu einigen Einschlägen kommen muss, bevor sich da was ändert. Ich bin auf jeden Fall gespannt, welche Erkenntnisse aus dem Projekt Glasswing in den kommenden Wochen und Monaten zu lesen sind.

Wenn ich das Bild hier verzerrt dargestellt habe oder jemand gute Quellen zu dem Thema hat, freue ich mich über eine Rückmeldung. Ich fand übrigens die Beschreibung im Podcast Logbuch Netzpolitik Folge 551: Schöne Fotos vom Weltuntergang sehr aufschlussreich.

Quellen