Entwickler schöpfen KI-Potenzial aus, aber Vertrauen hinkt hinterher
Künstliche Intelligenz wird von Softwareentwicklern mit der Begeisterung entdeckt, die man eigentlich bei Kindern im Süßwarenladen erwartet. Doch das Vertrauen in die Resultate dieser Tools ist vergleichbar mit dem Glauben an die Versprechen von Politikern.
Laut dem kürzlich veröffentlichten DORA-Report von Google Cloud nutzen mittlerweile 90 % der Entwickler täglich KI-Tools in ihrer Arbeit, ein Anstieg von 14 % im Vergleich zum Vorjahr. Allerdings vertrauen nur 24 % der Befragten den Informationen, die diese Werkzeuge liefern.
Der Bericht, der auf einer Umfrage unter fast 5.000 Technologieexperten weltweit basiert, zeigt eine Industrie, die bemüht ist, schnell voranzukommen, ohne dabei Dinge kaputtzumachen. Entwickler verbringen durchschnittlich zwei Stunden täglich mit KI-Assistenten, von der Codegenerierung bis zu Sicherheitsüberprüfungen. Dennoch geben 30 % der Befragten an, den KI-Ergebnissen nur „ein wenig“ oder „überhaupt nicht“ zu vertrauen.
Laut Ryan Salva von Google, der unter anderem für die Gemini Code Assist-Tools verantwortlich ist, ist die Nutzung von KI im Arbeitsalltag eines Google-Ingenieurs unvermeidlich. Sundar Pichai, CEO von Google, stellte fest, dass mehr als ein Viertel des neuen Codes des Unternehmens von KI-Systemen generiert wird und damit die Produktivität der Ingenieurteams um 10 % gesteigert wurde.
Entwickler setzen KI vor allem zur Codeerstellung und -anpassung ein. Auch Fehlerbehebung, Überprüfung und Pflege von Altsystemen sowie Bildungszwecke wie das Erklären von Konzepten oder das Erstellen von Dokumentationen gehören zu den Anwendungsbereichen.
Trotz mangelnden Vertrauens berichten über 80 % der befragten Entwickler, dass KI ihre Arbeitseffizienz steigert, während 59 % Verbesserungen der Codequalität bemerken. Interessanterweise beschreiben sich 65 % der Befragten als stark von diesen Tools abhängig, obwohl sie ihnen nicht vollständig vertrauen.
Die Diskrepanz zwischen Vertrauen und Produktivität spiegelt sich auch in der Stack Overflow 2025 Umfrage wider, die zeigt, dass das Misstrauen in die Genauigkeit von KI innerhalb eines Jahres von 31 % auf 46 % gestiegen ist, trotz einer hohen Adoptionsrate von 84 %.
Google adressiert diesen Vertrauenskonflikt nicht nur mit Beobachtungen. Das Unternehmen stellte das DORA AI Capabilities Model vor, einen Rahmen, der sieben Praktiken aufzeigt, um den Wert von KI zu nutzen, ohne Risiken einzugehen. Hierzu gehören nutzerzentriertes Design, klare Kommunikationsprotokolle und von Google als „Kleinserien-Workflows“ bezeichnete Strategien, um unkontrollierte KI-Aktivitäten ohne Aufsicht zu vermeiden.
Der Bericht beschreibt zudem Teamarchen von „harmonischen Höchstleistern“ bis hin zu Gruppen, die in einem „Legacy-Engpass“ stecken. Teams mit starken bestehenden Prozessen konnten durch KI ihre Stärken ausbauen, während fragmentierte Organisationen ihre Schwächen offengelegt sahen.
Der vollständige Bericht zur KI-unterstützten Softwareentwicklung und die Begleitdokumentation zum DORA AI Capabilities Model sind über das Forschungsportal von Google Cloud zugänglich. Die Materialien bieten konkrete Anleitungen für Teams, die ihre KI-Technologien proaktiver integrieren möchten—vorausgesetzt, sie haben genug Vertrauen, sie auch umzusetzen.

