Google I/O 2025: Alles intelligent und immer vernetzter
Auf der Entwicklerkonferenz Google I/O 2025 wurde Neues für Gemini, die Google Suche, KI-Assistenten und mehr vorgestellt.
Zur Google I/O 2025
Sogar ein vertieftes Konzept von Android XR für eine neue Generation von Smart Glasses mit Gemini-Unterstützung wurde vorgestellt. Der Trend ist erkennbar: Google arbeitet daran, sein fortschrittlichstes, multimodales Gemini 2.5 Pro Modell zu einem „world model“ zu machen, das die Welt um uns herum versteht und selbstständig Maßnahmen ergreift. Dafür transformiert Google die Gemini App in einen universellen KI-Assistenten und hat Gemini Live mit Funktionen des Forschungsprototyps Project Astra erweitert, etwa Sprachverarbeitung, Videoverständnis und Erinnerungsvermögen. Seitdem wurden Sprachausgabe sowie Gedächtnis verbessert und die Computersteuerung hinzugefügt. Project Mariner erforscht unterdessen, wie Agenten Menschen beim Multitasking helfen können, insbesondere im Browser. Das Project Mariner ist ab Sommer vorerst nur in den USA und auf Englisch verfügbar.
Gemini 2.5 Flash ist ab sofort verfügbar für Entwickler:innen in Google AI Studio, in Vertex AI für Unternehmen und in der Gemini App für weitere Nutzer:innen. Dieses Gemini 2.5 Flash umfasst neue Funktionen wie native Audioausgabe, Gedanken-Zusammenfassungen (‚Thought Summaries’), Budgets für Denkmodelle (‚Thinking Budgets’), verstärkte Sicherheit und „Deep Think“, einen erweiterten Denkmodus für komplexe Mathematik und Codierung in Gemini 2.5 Pro. Wenig überraschend: Auch die Suche wurde im Zuge der I/O mit neuen Funktionen ausgestattet. AI Mode in Search bietet tiefergehende Suchergebnisse, Multimodalität und die Möglichkeit, durch Folgefragen stärker in ein Thema einzutauchen. AI Mode ist ab sofort in den USA und auf Englisch verfügbar. Innerhalb von AI Mode kann Deep Search noch gründlichere Antworten liefern, indem es Hunderte von Suchanfragen durchführt und die Ergebnisse als Bericht zusammenfasst. Neu lassen sich PDFs und Bilder direkt in Deep Search hochladen. Bald ist es auch möglich, Dokumente aus Drive zu verknüpfen und die Quellen, aus denen Deep Research Informationen bezieht, individuell anzupassen.
Immer klüger, immer eigenständiger
Durch die Integration der Live-Funktionen von Project Astra können wir in Echtzeit mit Search über das sprechen, was die Kamera sieht. Agentische Fähigkeiten aus dem „Project Mariner“, ein KI Shopping Partner, personalisierte Vorschläge wie auch Grafiken komplexer Datensätze sind ebenfalls neu in der Google Suche. Gemini wird persönlicher, proaktiver und leistungsfähiger: Neue Funktionen für Gemini machen den KI-Assistenten persönlicher, proaktiver und leistungsfähiger. Unser Gemini wird personalisierter, indem es nach unserer Zustimmung auf Google-Informationen zugreift. Mit dem Agent Mode, der zunächst ab Sommer in den USA und auf Englisch startet, kann Gemini komplexe Aufgaben eigenständig erledigen. Wir beschreiben das gewünschte Resultat, den Rest erledigt Gemini. Die KI greift mit Zustimmung der Nutzer:in auf den Browser, Deep Research und diverse andere Google-Apps zu, um das bestmögliche Ergebnis zu liefern.
Gemini in Chrome für Windows und macOS bringt KI-Unterstützung direkt in den Browser. So lassen sich Inhalte schnell zusammenfassen oder Aufgaben im Kontext der geöffneten Website erledigen. Das neue Create-Menü in Canvas verwandelt Texte in interaktive Timelines, immersive Rätsel oder Audio-Zusammenfassungen im Podcast-Format. Im Zusammenspiel mit Gemini kann Canvas jetzt außerdem Codes generieren und Apps entwickeln. Gemini Live mit Kamera- und Bildschirmfreigabe ist ab sofort auch für iOS-User weltweit kostenlos verfügbar. Noch nicht genug? Das neue Premium-Abo Gemini Ultra ermöglicht den maximalen Zugang zu Googles KI-Modellen und Funktionen sowie exklusiven Zugang zu den neuesten Innovationen. Gemini AI Ultra kostet $249.99 monatlich und ist vorerst nur in den USA verfügbar.
Neue KI-Modelle und Tools für Kreative
Das neueste Bilderstellungsmodell Imagen 4 generiert Bilder 10 Mal schneller als die Vorgängerversion. Imagen 4 kann via Gemini App oder Vertex AI verwendet werden. Zudem kommt Veo 3 erstmals mit nativer Audio-Generierung in die Gemini App. Damit können Soundeffekte und Hintergrundgeräusche und bald sogar Dialoge für die Charaktere im Video eingefügt werden. Veo 3 ist vorerst nur in den USA via Gemini App verfügbar.
Flow (die Evolution von VideoFX) ist ein neues KI-Filmemacher-Tool von Google, das auf den KI-Modellen Veo, Imagen und Gemini basiert. Es ist speziell auf Veo zugeschnitten und zeichnet sich durch außergewöhnliche Befolgung von Prompts und beeindruckende filmreife Ausgaben aus. Im Hintergrund sorgen Gemini-Modelle für eine intuitive Eingabe in alltäglicher Sprache. Enthalten sind Funktionen für Kamerakontrolle, Szenenaufbau und Asset-Management. Flow ist aktuell nur für Google AI Ultra und Pro Abonnent:innen in den USA verfügbar.