Valve hat seine Richtlinien zur Offenlegung von KI-Nutzung für Entwickler angepasst, die ihre Spiele via Steam veröffentlichen wollen. Wie Simon Carless von GameDiscoverCo auf LinkedIn berichtet, sind Entwickler nicht länger verpflichtet, offenzulegen, wenn KI-Tools zur Steigerung der Arbeitseffizienz zum Einsatz kamen. „Effizienzgewinne durch den Einsatz von [KI-gestützten Entwicklungswerkzeugen] stehen nicht im Mittelpunkt“ von Valves Bemühungen.
Sehr wohl müssen Entwickler künftig aber weiterhin zwei Arten der KI-Nutzung offenlegen. Zum einen „KI zur Generierung von Spielinhalten“, sei es im Spiel selbst, auf der Shopseite oder in Marketingmaterialien. Zum anderen „KI-generierte Inhalte während des Spielverlaufs“ und ob das jeweilige Spiel KI-generierte „Bilder, Audio, Text und andere Inhalte“ erzeugt.
Seit 2024 müssen Entwickler auf Steam offenlegen, ob generative KI bei der Entwicklung ihrer Spiele zum Einsatz kam. Diese Information erscheint dann auf der Shopseite des Spiels in einem entsprechenden Abschnitt. Eine Analyse vom Juli 2025 ergab, dass in den ersten sechs Monaten des Jahres 2025 fast 8.000 auf Steam veröffentlichte Titel die Verwendung von generativer KI offengelegt hatten, verglichen mit rund 1.000 im gesamten Jahr 2024.
Laut einer Umfrage der Game Developers Conference im letzten Jahr gaben 52 Prozent der Entwickler an, in Unternehmen zu arbeiten, die generative KI-Tools nutzen. Mit zunehmender Nutzung sank jedoch das Interesse. Nur noch 9 Prozent der befragten EntwicklerInnen gaben an, dass ihre Unternehmen an generativen KI-Tools interessiert seien, gegenüber 15 Prozent im Vorjahr. 27 Prozent gaben an, dass ihre Unternehmen kein Interesse an deren Einsatz hätten – ein Anstieg um 9 Prozentpunkte gegenüber 2024.
Das Thema KI in der Videospielbranche bleibt komplex und heiß diskutiert. Erst kürzlich erklärte „Stellar Blade“-Director und Shift-up-Chef Hyung-tae Kim „KI als unverzichtbar, um global mitzuhalten“.
via VGC, Bildmaterial: Steam

Bin erst kürzlich von @gettingbetter auf diese Richtlinien von Steam aufmerksam gemacht worden. Prinzipiell sehr lobenswert, auch wenn ich nicht weiß, inwieweit Valve hier auf mehr als die Ehrlichkeit der Entwickler vertrauen kann. Prüfen kann schließlich niemand, ob und inwieweit KI eingesetzt wurde.
Schade ist hingegen, das sie jetzt wieder ein Hintertürchen aufmachen, dass keine Kennzeichnung erfordert. Allen voran eines mit dem Unwort "Effizienzsteigerung", was sicherlich keine Entlastung für die Mitarbeiter bedeutet. Das hätte es sicherlich nicht gebraucht, denn wie schon bei der Gesetzgebung wird es aufgrund der allgemeinen Bezeichnungen auch hier Schlupflöcher geben. Im Zweifel ist es dann "Auslegungssache".
Hier geht es ja nicht um ein Verbot oder Ausschluss, sondern um das Bereitstellen von Informationen. Da hätten sie das Hintertürchen geschlossen und die noch allgemeinen Arten der KI-Nutzung weiter spezifizieren lassen sollen.
Der Absatz verwirrt mich etwas. Laut der Umfrage im letzten Jahr (2025) gaben 52 Prozent an, mit generativer KI zu arbeiten. Im nächsten Teil wird dann nur von interessierten und nicht interessierten Unternehmen gesprochen; bei beiden geht die Tendenz weg vom Einsatz von KI-Tools. Wie steht es denn um die Unternehmen, die sie bereits genutzt haben? War die Zahl 2024 höher oder niedriger als die angegebenen 52 Prozent?
Finde ich eine schlechte Änderung. Ich verstehe nicht warum es ein Problem sein sollte einfach transparent zu sein, damit der Kunde selbst entscheiden kann ob er die Spiel kaufen will oder nicht. Ich hoffe echt das da nochmal von der EU oder so ein gesetzt dazu kommt der volle Transparenz bei sowas schafft,
Momentan wird die KI Sau durchs Dorf getrieben, ich bin mir aber relativ sicher dass die Information irgendwann ziemlich egal sein wird.
Wir erinnern uns z.b. daran, dass Kopierschutzmaßnahmen wie Denuvo ein krasses Reizthema waren. Die müssen z.B. bei Steam nicht angeben (können aber wohl) werden.
Da der Einsatz von generativer KI immer noch explizit angezeigt werden muss, sehe ich da erstmal nicht so ein großes Problem in der Änderung. Die Sache ist eben auch die: KI ist heutzutage überall und nicht immer ist sie problematisch. Suchmaschinen wie Google funktionieren mit KI, Übersetzungsprogramme funktionieren mit KI, die Macher von The Witcher 4 hatten irgendwann mal vorgestellt, wie sie KI benutzen, um eine realistische Bewegung von Blättern an einem Baum zu erzeugen usw. Problematischer wird es dann, wenn Artworks, Stimmen usw. von KI erzeugt werden, aber da sind wir dann schon wieder bei dem Punkt generative KI, der von den Richtlinien nach wie vor abgedeckt wird.