100 Dinge, die wir auf der Google I/O 2023 angekündigt haben
Wow, die Google I/O ist vorbei – und es gab wirklich viel Neues zu sehen und zu hören. Zwischen all den Ankündigungen habt ihr vielleicht das ein oder andere verpasst – aber keine Sorge, denn wir haben hier die 100 wichtigsten Dinge zusammengestellt, die auf der I/O 2023 angekündigt wurden.
Mehr Pixel für alle
- Wir haben Google Pixel Fold in unsere Pixel-Familie aufgenommen! Unser erstes faltbares Smartphone wird vom Google Tensor G2-Prozessor angetrieben und verfügt über einen 7,6-Zoll-Bildschirm1 im aufgeklappten Zustand, eine Splitscreen-Funktion und vieles mehr.
- Google Pixel Fold enthält bekannte Pixel-Kamera-Features wie Real Tone, Magischer Radierer und Nachtsicht, aber es bringt auch einige neue Kamera-Funktionen mit - wie den Rückkamera-Selfie-Modus, der das hochwertigste Pixel-Selfie aufnimmt. Ihr könnt sogar eine schnelle Geste verwenden, um einen Countdown für Selfies zu starten.
- Wenn sich das Pixel Fold im „Auf dem Tisch“-Modus befindet, um ein Gruppen-Selfie aufzunehmen, könnt ihr den Timer der Kamera mit der gleichen Geste auslösen, die auch für Rückkamera-Selfies verwendet wird.
- Pixel 7a ist auch da! Das 7a hat die ikonische Pixel-Kameraleiste und ist unser bisher robustestes Smartphone der A-Serie.
- Die verbesserte Hauptkamera von Pixel 7a verfügt über einen 72 % größeren Sensor als das Pixel 6a, der 44 % mehr Licht aufnimmt – sowie über ein völlig neues 13-Megapixel-Ultraweitwinkelobjektiv. Zum ersten Mal in der A-Serie bietet euch das Pixel 7a Langzeitbelichtung und Super-Resolution-Zoom.
- Und es gibt sie in zwei neuen Farben: Coral und Sea. Die Pixel Buds A-Series werden ebenfalls in der Farbe Sea erhältlich sein. Weitere neue Hardware-Farben in diesem Jahr sind Snow, Charcoal, Obsidian, Porcelain, Hazel und Rose.
- Und dann hätten wir da noch Google Pixel Tablet, das ein 11-Zoll-Display2, vier integrierte Lautsprecher und die Power des Tensor G2-Prozessor in einem praktischen Gerät vereint.
- Das Pixel Tablet kommt nicht allein. Mit im Lieferumfang: Das Ladedock mit Lautsprecher geliefert, welches das Gerät auflädt und Pixel Tablet in eure Smart-Home-Zentrale verwandelt, das ihr per Sprachsteuerung nutzen könnt.
- Pixel Tablet ist das erste Tablet mit integrierter Chromecast-Technologie und auch das erste Tablet, das durch den Titan M2-Sicherheitschip geschützt ist.
- Das neue Pixel Tablet gibt es auch in zwei für Google-Geräte neuen Farben: Porcelain und Hazel.
- Das Designteam hat ein Material entwickelt, das ein angenehmes, gedämpftes Gefühl für das Tablet-Dock vermittelt.
- Google Meet auf Pixel Tablet nutzt die KI des Google Tensor-Prozessors, um euch automatisch in der Mitte des Bildes zu fixieren und die Beleuchtung anzupassen, wenn ihr euch bewegt.
- Ihr könnt sogar spielerisch werden und 360-Grad-Hintergründe für eure Videoanrufe auswählen: die Strände und futuristischen Städte passen sich euch an, wenn ihr euch bewegt und die Position wechselt.
- Dank der Maschinellen Lernens ist die Spracheingabe mit Google Assistant3 auf Pixel Tablet fast dreimal so schnell als wenn ihr selbst tippt.
- Wir haben einiges an Zubehör für Google Pixel Tablet vorgestellt – darunter das Pixel Tablet Case, welches mit dem Ladedock mit Lautsprecher kompatibel ist und über ein Ringstativ aus Metall auf der Rückseite verfügt, damit ihr das Tablet in unterschiedlichen Winkeln aufstellen und aus verschiedenen Perspektiven auf das Display schauen könnt. Und unsere Made by Google-Partner haben weiteres Zubehör für euch.
- Pixel 7a ist ab sofort erhältlich, Pixel Tablet und Pixel Fold könnt ihr jetzt vorbestellen – und wenn ihr Pixel Fold bis zum 02.07.2023 bei einem teilnehmenden Händler kauft, erhaltet ihr eine Google Pixel Watch als Geschenk hinzu.4
- Wenn ihr euch Pixel 7a bis zum 22.05.2023 bei einem teilnehmenden Händler kauft, könnt ihr euch Google Pixel Buds A-Series im Wert von 99 € als Geschenk sichern.5
Die Google Suche jetzt mit noch mehr Möglichkeiten
18. Wir haben Search Labs eingeführt, damit ihr Produkte und Ideen testen könnt, die wir erforschen. Es ist auf dem Chrome-Desktop und in der Google-App verfügbar – und tippt auf Anmelden.
19. Demnächst könnt ihr in Google Labs SGE (Search Generative Experience), ein neues generatives KI-Erlebnis auf dem Chrome-Desktop und in der Google App (Android und iOS) testen. Dieses Experiment ist zunächst in den USA verfügbar (zum Start nur in englischer Sprache).
20. Eure Suchanfragen werden ausgewertet und gibt Ihnen KI-gestützte Snapshots der wichtigsten Informationen, die ihr berücksichtigen solltet, mit Links zu weiterführenden Informationen und Vorschlägen für nächste Schritte. Und ihr habt die Möglichkeit, auf Folgefragen zu klicken, seht ihr einen neuen Konversationsmodus, in dem Sie Google mehr über das Thema fragen könnt.
21. Ein neues generatives KI-Einkaufserlebnis basiert auf dem Google Shopping Graph. Wenn ihr nach einem Produkt sucht, erhaltet ihr einen Überblick über wichtige Faktoren und Produkte, die in Frage kommen, um diese bei eurer Kaufentscheidung zu berücksichtigen
22. Wir testen auch einige andere Dinge in Search Labs: Code Tips hilft euch beim Programmieren, und Add to Sheets hilft Ihnen, ein Suchergebnis direkt in einer Google Tabelle einzufügen und diese mit euren Freund:innen zu teilen.
23. Wenn ihr per Google Suche nach etwas sucht, das auf Erfahrungen anderer basiert, werdet ihr bald einen Perspektiven-Filter oben in den Suchergebnissen sehen, mit dem ihr ausschließlich Informationen aus erster Hand oder von Expert:innen aus Foren, Social-Media-Plattformen und Video-Sharing-Communities sehen könnt.
24. Wir haben Verbesserungen bei der Ranking von Suchergebnissen angekündigt, wobei der Schwerpunkt stärker auf Inhalten mit besonderer Expertise und Erfahrung liegt.
25. Fun fact: Menschen weltweit nutzen Google Lens mittlerweile für zwölf Milliarden visuelle Suchanfragen pro Monat – ein vierfacher Anstieg in nur zwei Jahren.
Smarter arbeiten
26. Im letzten Jahr haben die KI-Funktionen in Google Workspace Nutzer:innen geholfen, über 180 Milliarden Mal zu schreiben.
27. ... und das ist erst der Anfang: Mit Duet AI für Google Workspace integrieren wir die Leistung der generativen KI in alle Google Workspace-Anwendungen.
28. Google Mail nutzt bereits KI, um euch beim Entwerfen von Antworten zu helfen. Jetzt fügen wir die Möglichkeit hinzu, den Kontext eures E-Mail-Threads zu berücksichtigen – auch mobil.
29. Wir haben auch generative KI in Google Präsentationen implementiert. So könnt ihr ganz einfach Bilder aus Textbeschreibungen erstellen.
30. Die neuen KI-Tools in Google Präsentationen können die Datenklassifizierung automatisieren und euch helfen, Ereignisse und Projekte zu organisieren, um eure Daten schneller zu finden und zu analysieren.
31. Google Meet bietet künftig die Möglichkeit, individuelle Hintergründe für Videoanrufe zu erstellen.
32. Das unterstützte Schreiben in Google Docs ist jetzt noch besser, denn es wurden intelligente Chips, Variablen und Vorlagen hinzugefügt, die bald automatisch in den Inhalt eingefügt werden und euch Shortcuts für Aktionen direkt in einem Dokument bieten.
33. Außerdem haben wir Updates für beliebte Tools und Funktionen angekündigt, die ihr bereits kennt: Die Rechtschreibprüfung und die Korrekturvorschläge zur Grammatik in Google Docs werden überarbeitet, und es wird einen neuen Bereich mit Korrekturvorschlägen geben, der euch hilft, präzise zu schreiben, Wiederholungen zu vermeiden und eine förmliche oder aktivere Sprache zu verwenden.
34. Lust auf diese KI-Tools? Wir haben Workspace Labs ins Leben gerufen, damit ihr euch anmelden könnt, um neue Funktionen als Tester:in auszuprobieren.
35. Unser neuester Project Starline-Prototyp hat ein schlichteres Design, das einfacher in mehr Räume passt. Dieser neueste Prototyp verwendet eine neue von uns entwickelte KI-Technik, die nur wenige Kameras zur Verarbeitung hochwertiger 3D-Informationen benötigt. Außerdem ist er kleiner und ähnelt mehr einem herkömmlichen Videokonferenz-System.
KI für zu Hause (und unterwegs)
36. Wir haben Immersive View für Routen in Google Maps angekündigt, so dass ihr jeden Abschnitt eurer Reise visualisieren könnt, bevor ihr euch auf den Weg macht – egal ob ihr mit dem Auto, zu Fuß oder dem Fahrrad unterwegs seid.
37. Immersive View für Routen wird in den kommenden Monaten in Amsterdam, Berlin, Dublin, Florenz, Las Vegas, London, Los Angeles, Miami, New York, Paris, San Francisco, San Jose, Seattle, Tokio und Venedig ausgerollt.
38. Wir führen zudem die Möglichkeit ein, die letzten Suchanfragen direkt in Google Maps zu löschen – mit nur einem Fingertipp.
39. Magischer Editor, eine neue experimentelle Bearbeitungsfunktion in Google Fotos, hilft euch dabei, verschiedene Aspekte eures Fotos neu zu gestalten – zum Beispiel könnt ihr einen bedeckten Himmel in ein helles Blau verwandeln oder das Motiv einer Aufnahme neu positionieren.
40. Ausgewählte Pixel-Smartphones erhalten im Laufe des Jahres einen Preview-Zugang zu Magischer Editor.
41. Universal-Übersetzer ist ein experimenteller KI-Videosynchronisationsdienst, der Expert:innen dabei hilft, die Stimme einer Sprecherin oder eines Sprechers zu übersetzen und ihre oder seine Lippenbewegungen anzupassen, was das Lernverständnis enorm erleichtern könnte.
42. Wirklich toll: Die überarbeitete Google Home-App ist da.
43. Die neue Google Home-App öffnet jetzt den Tab „Favoriten“, den ihr jederzeit neu anordnen könnt.
44. In der Google Home-App könnt ihr nun auch die Historie vertikal aufgenommener Videos schnell scannen, damit ihr eure Aufnahmen schnell und effizient checken könnt.
45. Und wir haben Project Tailwind angekündigt, ein AI-first-Notizblock, angetrieben von euren Notizen und Quellen.
PaLM und Bard
46. Wir haben PaLM 2 eingeführt, unser Sprachmodell der nächsten Generation. Es ist schneller und effizienter als die Vorgängermodelle – und es ist in verschiedenen Größen verfügbar, so dass es für eine breite Palette von Anwendungsfällen leicht eingesetzt werden kann.
47. PaLM 2 unterstützt mehr als 25 Produkte, welche wir auf der I/O vorgestellt wurden – und Dutzende Produkt-Teams bei Google nutzen es bereits
48. PaLM 2 treibt unsere neue PaLM API an.
49. Unsere Forschungsteams haben PaLM 2 verwendet, um Med-PaLM 2 zu entwickeln, das auf medizinisches Wissen trainiert wurde – und dabei hilft, Fragen zu beantworten und Erkenntnisse aus einer Vielzahl von komplexen medizinischen Texten zusammenzufassen. Wir erforschen nun multimodale Fähigkeiten, so dass es Informationen von Patient:innen aus Bildern – wie z. B. einer Röntgenaufnahme der Brust oder einer Mammographie – synthetisieren kann, um die Patient:innenversorgung zu verbessern.
50. Med-PaLM 2 wird später in diesem Sommer einer kleinen Gruppe von Cloud-Kunden für Feedback zur Identifizierung von sicheren, hilfreichen Anwendun
51. Wir arbeiten bereits an Gemini – unserem nächsten Modell, das von Grund auf multimodal und hocheffizient bei der Integration von Tools und APIs ist und zukünftige Innovationen wie Gedächtnis und Planung ermöglicht. Gemini befindet sich noch in der Trainingsphase, aber es zeigt bereits multimodale Fähigkeiten, die in früheren Modellen noch nie gesehen wurdengsfällen vorgestellt.
52. Wir haben mehrere Verbesserungen und Neuigkeiten zu Bard, unserem experimentellem KI-Dienst, vorgestellt – zum Beispiel das Dunkle Design.
53. Bald könnt ihr Bilder in euren Anfragen an Bard nutzen und damit ihr eurer Kreativität freien Lauf lassen.
54. Bard ist auf Englisch nun in mehr als 180 Ländern verfügbar. Und ihr könnt Bard nun auf Japanisch und Koreanisch nutzen.
55. Bis Ende des Jahres, wird Bard in den 40 meistgesprochenen Sprachen verfügbar sein, damit noch mehr Menschen in ihrer Muttersprache mit Bard arbeiten können.
56. Es gibt keine Warteliste mehr, damit mehr Nutzer:innen Bard ausprobieren können.
57. Ab nächster Woche werden wir Zitate noch präziser anzeigen. Wenn Bard einen Codeblock einbringt oder andere Inhalte zitiert, klickt einfach auf die Anmerkung und Bard unterstreicht diese Teile der Antwort und verlinkt auf die Quelle.
58. Demnächst wird Bard bei den Antworten visueller werden und euch damit einen besseren Eindruck davon vermitteln können, worüber ihr gerade etwas erfahrt.
59. Künftig wird Bard nicht nur in Google-Dienste, sondern auch in beliebte Apps – wie Adobe, Instacart und Khan Academy – integriert sein.
Alles Wissenswerte zu Android
60. Der Schreibassistent für Android erscheint im Sommer als Beta-Version und hilft euch dabei, euren Nachrichten das gewisse Etwas zu verleihen. Ihr könnt zwischen sechs verschiedene Schreibstilen wählen, z. B. prägnant oder professionell.
61. Wenn Android 14 in den nächsten Monaten veröffentlicht wird, werdet ihr viele Möglichkeiten haben, euer Smartphone noch individueller zu gestalten – inklusive neuer Sperrbildschirm-Shortcuts und monochromen Farbschema.
62. Mit Emoji-Hintergrundbildern könnt ihr Hintergrundbilder auf Grundlage eurer Lieblings-Emoji-Kombinationen, Mustern und Farben selbst designen.
63. 3D-Hintergründe nutzen maschinelle Lernnetzwerke auf eurem Smartphone, um eure Lieblingsfotos in beeindruckende 3D-Bilder zu verwandeln. Ihr könnt sie zum Leben erwecken, wenn ihr euer Gerät entsperrt oder neigt.
64. Falls ihr nicht die oder der geborene Fotograf:in seid, kein Problem: bei Generative KI-Hintergrundbilder könnt ihr auf Vorschläge antworten und Googles Text-zu-Bild-Diffusions-Modells hilft euch dabei, eure ultimative kreative Vision zu verwirklichen.
65. Mehr als 50 Google-Apps sind aktualisiert und angepasst worden, damit sie auch auf größeren Bildschirmen von Tablets und Foldables super aussehen und funktionieren.
66. Wir haben bekanntgegeben, dass Wear OS 3 das global am schnellsten wachsende Smartwatch-Betriebssystem ist – und noch in diesem Jahr werdet ihr neue Smartwatches mit dem neuen Betriebssystem ausprobieren können, auf denen Apps wie WhatsApp und Gmail laufen.
67. Wear OS 4 wird zudem Sicherungs- und Wiederherstellungsfunktionen unterstützen, damit eure Daten und Einstellungen sicher von eurer alten Smartwatch auf eure neue übertragen könnt. Und wenn ihr eine Smartwatch vom Smartphone aus einrichtet, werden alle Berechtigungen, die ihr auf eurem Smartphone erteilt habt, automatisch übernommen.
68. Android Auto wird in 200 Millionen Autos verfügbar sein – und die Zahl der Auto-Modelle mit integrierten Google Apps und Services wird sich bis Ende des Jahres mehr als verdoppeln.
69. Apropos Autos: Waze ist nun global im Google Play Store für alle Autos mit integrierten Google Apps und Services verfügbar.
70. Wir arbeiten mit Partnern zusammen, um euch WebEx von Cisco, Microsoft Teams und Zoom zur Verfügung zu stellen, damit ihr geplante Audio-Meetings direkt von eurem Fahrzeugdisplay aus halten könnt.
71. YouTube wird in den kommenden Wochen in Polestar-Fahrzeugen verfügbar sein – und bald auch für weitere Fahrzeughersteller.
72. Wir arbeiten zusammen mit Samsung an einer neuen, immersiven XR-Plattform, die von Android angetrieben wird.
73. Wir unterstützen bald 10-Bit Ultra HDR-Bilder in Android 14, dammit ihr damit ihr Fotos mit leuchtenden Farben, gestochen scharfen Schatten und einer rundum beeindruckenden Auflösung aufnehmen und anschauen könnt.
Sicherheit, Privatsphäre und Verantwortung
74. Wir haben unsere neueste Safe Browsing API vorgestellt, welche KI nutzt, um gefährliche Webseiten und Dateien zu erkennen und euch zu warnen. So kann sie Betrug vermeiden, bevor er passiert.
75. Wir erweitern den Schutz vor Spam in Google Drive mit einer neuen Ansicht, die es euch einfacher macht, Dateien zu überprüfen und zu entscheiden, was ihr als Spam sehen könntet.
76. Nun kann jede:r mit einem Gmail-Konto in den USA Scans durchführen, um zu sehen, ob die eigene Gmail-Adresse im Dark Web auftaucht. Dies war bisher Google One-Abonnent:innen in den USA vorbehalten.
77. Beginnend mit den Standortdaten werdet ihr in den Berechtigungsanfragen darüber informiert, wenn eine App eure Daten zu Werbezwecken mit Dritten teilt. So könnt ihr die Standortfreigabe für jede App genehmigen oder ablehnen.
78. Wir fügen außerdem eine neue „Datenlöschung“-Option im Google Play-Abschnitt zur Datensicherheit einer App ein.
79. Wir erweitern unsere Content Safety API, um potenzielle missbräuchliche Inhalte in Videos einzubeziehen – ein wichtiger Schritt für die Kindersicherheit im Netz.
80. Wir wenden die von unseren Jigsaw-Forscher:innen entwickelte Perspective API auf unsere Large-Language-Modelle (LLMs) an, um die Toxizität von Online-Kommentaren einzudämmen.
81. Wir machen zudem Fortschritte bei der Entwicklung von Tools zur Erkennung synthetischer Sprache: In unserer AudioLM-Arbeit haben wir einen Klassifikator trainiert, der synthetische Sprache in unseren Audiomodellen mit einer Genauigkeit von fast 99 % erkennen kann.
82. Im Sommer werden wir das überarbeitete „Mein Gerät finden“ für Android veröffentlichen, damit ihr eure Geräte und Habseligkeiten leichter wiederfindet.
83. Die erhobenen Standortdaten von „Mein Gerät finden“ sind Ende-zu-Ende verschlüsselt, so dass Google sie nicht einsehen oder für andere Zwecke verwenden kann.
84. Später in diesem Sommer werden wir auch Benachrichtigungen über unbekannte Tracker auf Android einführen, die euch automatisch benachrichtigen, wenn euer Smartphone feststellt, dass sich ein unbekannter Bluetooth-Tracker mit euch bewegt.
85. In den kommenden Monaten, eine neue Funktion namens „Informationen zu diesem Bild“ hinzu. Die Funktion bietet euch wichtigen Kontext, z. B. dazu, wann und wo ähnliche Bilder möglicherweise zum ersten Mal erschienen und ob sie auf Faktencheck-Webseiten auffindbar sind.
Tools für Unternehmen und Entwickler:innen
86. Google Cloud hat drei neue Modelle in Vertex AI eingeführt: Imagen ermöglicht die Bilderzeugung und -anpassung; mit Codey könnt ihr Anwendungen schneller erstellen, indem ihr bei der Codegenerierung unterstützt werden; und Chirp, ein universelles Sprachmodell, bietet Sprach-zu-Text-Genauigkeit für über 100 Sprachen.
87. Ebenfalls neu: Duet AI für Google Cloud, ein KI-gestützter Kollaborator, der bei der kontextbezogenen Code-Vervollständigung hilft, Funktionen in Echtzeit generiert, auf eure Code-Basis abgestimmte Vorschläge macht, bei Code-Reviews hilft und vieles mehr.
88. Unsere Google Cloud AI-Angebote werden von unserer AI-optimierten Infrastruktur unterstützt - einschließlich neuer virtueller A3-Maschinen, die auf NVIDIAs H100-GPU basieren.
89. Ab heute könnt ihr bei der Erstellung eines Google Play Store-Eintrags in englischer Sprache die generative KI-Technologie von Google nutzen, um euch den Einstieg zu erleichtern. Öffnet dazu einfach unseren KI-Helfer in der Google Play Console, gebt ein paar Vorgaben ein, z. B. eine Zielgruppe und ein Hauptthema, und schon wird ein Entwurf erstellt, den ihr bearbeiten, verwerfen oder verwenden könnt.
90. Wir haben Project Gameface angekündigt, eine freihändige Open-Source-Gaming-Maus. Sie nutzt unsere Lösung namens „MediaPipe Face Landmark Detection“ – ein leistungsstarkes Tool für maschinelles Lernen –, um Gesichtsmerkmale in Echtzeit zu erkennen.
91. Und es ist auf GitHub frei verfügbar.
92. Wir führen die Aerial View API ein, mit der Entwickler:innen Videos aus der Vogelperspektive eines Gebiets in Google Maps integrieren können.
93. Rent. nutzt die Aerial View API bereits in ihrer App, um Mieter:innen dabei zu helfen, ein Grundstück und die Umgebung zu visualisieren.
94. Und die neue Funktion „Photorealistic 3D Tiles“ ermöglicht es Entwickler:innen, ihre eigenen Anwendungen und Webseiten mit individuellen Karten zu versehen.
95. Wir haben Compose for TV veröffentlicht, um euch die Entwicklung schöner und qualitativ hochwertiger Apps für TVs zu erleichtern.
96. Außerdem haben wir die neuesten Fortschritte in ChromeOS angekündigt und eine neue Funktion in der Betaphase veröffentlicht, mit der Nutzer:innen Android-Apps von ihrem Smartphone aufs Chromebook streamen können.
97. Außerdem haben wir eine Möglichkeit für Entwickler:innen eingeführt, das Aussehen und Verhalten von Wear OS-Zifferblättern zu konfigurieren, ohne programmieren zu müssen.
98. Der neue Android UI Design Hub ist eine umfassende Ressource, um zu verstehen, wie man benutzerfreundliche Oberflächen für Android mit Anleitung erstellt.
99. Mit der neuen App „Actions Test Library“ und dem Google Assistant-Plugin für Android Studio (jetzt auch für Wear und Auto verfügbar) ist es jetzt einfacher zu programmieren, die Nutzer:innenerfahrung zu emulieren, um Nutzer:innenerwartungen vorherzusagen und App Actions-Integrationen auf primären und ergänzenden Android-Geräten bereitzustellen.
100. Oh, und wir haben die neueste Android 14-Betaversion angekündigt!