Microsofts Azure-CTO über Vibe-Coding: „Es gibt eine Obergrenze“

Doch nicht so leicht zu ersetzen: menschliche Programmierer:innen. (Foto: Gorodenkoff/Shutterstock)
Bei einer Keynote auf einem Startup- und Investoren-Event der Technology Alliance in Redmond hat sich Mark Russinovich, CTO von Microsoft Azure, kritisch zur KI-gestützten Softwareentwicklung geäußert. Skeptisch sieht er den Ansatz des „Vibe-Coding“, bei dem Entwickler:innen sich auf KI-Vorschläge verlassen, ohne den Code vollständig zu verstehen. Russinovich warnte davor, dass dies langfristig zu Qualitätsproblemen und Sicherheitsrisiken führen könne. Das berichtet die US-Nachrichtenseite Geek Wire.
Russinovich sprach ausführlich über die Grenzen von künstlicher Intelligenz, auch in Sachen Sicherheit und Zuverlässigkeit der Antworten bei Large Language Modellen (LLM). Er glaubt, dass KI auch weiterhin ein praktisches Tool bleiben wird, statt menschliche Programmierer:innen zu ersetzen.
Programmieren mit KI: Auch in fünf Jahren nicht ausgereift
Während er die Nützlichkeit von Tools wie GitHub Copilot für einfache Webanwendungen, Datenbankprojekte und schnelles Prototyping anerkennt, betonte er gleichzeitig, dass diese Werkzeuge bei komplexen Softwareprojekten an ihre Grenzen stoßen.
Insbesondere bei Projekten, die über mehrere Dateien und Ordner verteilt sind und in denen verschiedene Code-Teile komplex miteinander interagieren, versagen die aktuellen KI-Systeme. Russinovich sieht in den derzeitigen Modellen eine strukturelle Obergrenze, die auch in den nächsten fünf Jahren nicht überwunden werden dürfte.
Russinovichs Einschätzung ist vor allem als Gegenpol zum derzeitigen Hype des sogenannten Vibe-Codings von Bedeutung. Der Begriff bezeichnet das Programmieren per KI durch Laien, die eigentlich nichts oder nur wenig von Coding verstehen. Offenbar könnte diese Technik professionellen Programmierer:innen weniger Konkurrenz machen als zunächst angenommen.
Azure-CTO: Zukunft liegt in Kooperation von Mensch und Maschine
Trotz der Limitationen sieht Russinovich eine Zukunft in der Zusammenarbeit zwischen Mensch und KI. Er betont, dass KI-Systeme als unterstützende Werkzeuge dienen sollten, wobei die endgültige Kontrolle und Entscheidungsfindung beim Menschen verbleiben muss.
Dieses Konzept fließt laut Russinovich auch in Microsofts Vision für das KI-Coding-Hilfsmittel Github Copilot ein.
Unzuverlässige KI: Sicherheitsbedenken und Halluzinationen
Ein weiterer Schwerpunkt von Russinovichs Vortrag lag auf den Sicherheitsaspekten von KI-Systemen. Dabei resümierte er, dass künstliche Intelligenz nach wie vor anfällig für Sicherheitslücken und Vermittlung falscher Information sei.
Unter anderem stellte der Azure-CTO eine von ihm und anderen Microsoft-Forschern entwickelte Technik namens „Crescendo“ vor, die KI-Modelle dazu bringen kann, Informationen preiszugeben, die sie normalerweise verweigern würden. Dabei wird mit harmlosen Fragen an ein LLM begonnen, um dem Chatbot dann schrittweise sensiblere Informationen zu einem eigentlich verbotenen Thema zu entlocken.
Zudem thematisierte Russinovich das anhaltende Problem der „Halluzinationen“ bei KI-Systemen. Er zeigte Beispiele von Google und Microsoft Bing, die fehlerhafte Antworten auf einfache Fragen lieferten. Im Zuge dessen betonte er die Notwendigkeit, sowohl die Eingaben als auch die Ausgaben von KI-Modellen sorgfältig zu überprüfen.
Mit seinem Vortrag versetzte Russinovich dem derzeit grenzenlos anmutenden KI-Hype und den damit verknüpften Erwartungen einen kleinen Dämpfer. Ob er mit seiner Einschätzung recht behalten wird, muss sich allerdings erst zeigen.
Apple Intelligence: In diesen 6 Fällen lag die KI daneben