Apfelplausch #427: Apple AI-Pin in Arbeit | iPhone 18 News | Alexa+ Rollout
Sponsor: Incogni → incogni.com/apfelplausch für 60 % Rabatt
Roman und Lukas sind verspätet, aber nun auf Sendung. Viel Spaß mit der zweiten Sendung des Jahres – wie immer aus Wien und Bielefeld.
- Zur Apfelplausch-App
- Folge direkt bei Apple anhören
- Folge direkt bei Spotify anhören
- Folge direkt bei YouTube anhören
Kapitelmarken
- 0:00: Einleiter: Die Problematik des erweiterten iPhone-Schutzes
- 04:45: Hörerpost
- 17:50: KI-Updates: Siri-Chatbot soll bald kommen | Apple-KI-Device in Arbeit, soll OpenAI Gadget herausfordern – Ankündigung angeblich noch 2026
- 40:00: Sponsor: Incogni → incogni.com/apfelplausch für 60 % Rabatt
- 43:30: Gerüchte: iPhone 18 Dynamic Island in der linken Ecke? | iPhone 17e weiter mit 60 Hz | MBP mit OLED schon früher?
- 56:10: Randnotizen: Wie Apple im App Store Werbung unterjubelt | Alexa+ kommt so langsam
Apfelplausch hören
- Kein Apfelplausch mehr verpassen: ladet unsere neue App → zur App
- Bei Apple
- Bei Spotify
- Bei YouTube
- Bei Radio.de
Apfelplausch unterstützen
Als Hörerpost im Plausch sein?
…dann schreibt uns eure Fragen, Anmerkungen, Ideen und Erfahrungen an folgende Adressen:
- E-Mail: apfelplausch@apfellike.com | vorname@apfelplausch.de | mail@apfelplausch.de
- Twitter: Apfelplausch folgen (oder Roman und Lukas)
- Instagram: Apfelplausch folgen
- Webseite: apfelplausch.de
- Merch: Apfelplausch kaufen
Huhuu ihr Plauscher,
meiner kurzer Senf zu Android Tablets vs. iPads: Ich kann es echt nicht mehr hören!
Entweder schleppen alle einen Mythos der Vergangenheit mit sich herum und haben nie wieder einen Blick auf Android-Tablets geworfen, oder aber ich nutze schlicht eine so begrenzte Zahl von Apps, dass ich einen wahren Glückstreffer damit gelandet habe.
Kurzum: Ich nutze ein iPad Air und ein iPad 10 und ein Pixel Tablet – ich hab über die letzten 15 Jahre hinweg immer ein Android-Tablet im Haushalt gehabt.
Mit Android Version 3.0 – 3.2 Honeycomb hat Google eine Tabletversion eingeführt, die später mit Android 4.0 Icecream Sandwich für beide Systeme (Phone und Tablet) optimiert dargestellt wurde.
Ich nutze auf meinen Geräten die gleichen Apps (es sei denn sie sind nicht für das andere System verfügbar) und stelle keinen Nutzungsunterschied zwischen iPad und Android-Geräten fest.
Im Gegenteil: Während ich den Proton Calendar auf iPad OS noch im iPhone Format hatte und die App auf dem iPad „großziehen“ musste, gab es in der Androidwelt bereits eine Tabletoptimierung dafür.
Alle Apps, die ich nutze, sind für Tablets optimiert, ob das nun die Google hauseigenen Apps sind oder Drittanbieter Apps wie alle Streamingdienste egal ob Musik oder Film, RSS Reader, die wichtigsten Mail-Apps, Microsoft Apps, Notizapps wie Upnote, Dropbox, die Kindle App, selbst eine Nischen-App wie die Panasonic Music Control ist Tablet-optimiert.
Ja, vielleicht hab ich jetzt genau so eine Auswahl, bei der das zutrifft und bei mehreren Millionen Apps im Playstore sind sicherlich zahlreiche dabei, die auf dem Tablet nur hochskalierte Smartphone Apps sind, aber das gibt es unter iOS auch immer noch.
Was mich anbelangt, steht ein Android Tablet gerade aus dem Haus Google oder Samsung einen iPad (Standardgerät) in nichts nach, was das Nutzungsverhalten angeht. Im Gegenteil, in einigen Punkten sind sie sogar nutzungsfreundlicher: Widgets lassen sich besser skalieren und freier auf dem Homescreen anordnen als es auch beim aktuellen iPadOS möglich ist. Und als Homezentrale bieten aktuelle Android-Tablets mit Dashboard-Funktion eine optimale Steuerungszentrale über die Google Home Dashboard-Ansicht.
Natürlich muss man immer bedenken, dass Entwickler es bei iOS und iPadOS etwas einfacher haben, da die Auswahl an Geräten begrenzt ist. Zwar sind verschiedene neue Bildschirmauflösungen hinzugekommen, aber es ist vermutlich etwas anderes, für eine handvoll Geräte eine Optimierung vorzunehmen als für eine unendliche Vielfalt für alle möglichen Auflösungsvarianten im Android-Bereich. Egal ob 7″, 8″, 8,9″, 9,7″, 10,1″, 10,3″, 10,9″, 11,0″ die haben ja dann nicht alle Standard 1920 x 1080 oder 1200 Pixel, sondern nutzen oft auch noch ihr spezielles Format.
So, das war meine kurze Lanze für Androiden. Ich muss allerdings dazu sagen, dass das 4:3 Seitenverhältnis bei einem iPad deutlich besser für ein produktives Arbeiten ist und vor allen Dingen, um Inhalte hochkant zu konsumieren. 16:9 im Porträtmodus ist so kacke wie es nur sein kann 🙂
Viele Grüße
Martin
Hey Martin, danke für deinen ausführlichen Bericht! Falls Marco und ich das Thema nochmal aufgreifen, gehen wir gerne in unserer nächsten Folge auf deinen Kommentar ein 😉 Liebe Grüße, Fabian
Sorry, Jungs, ich muss euch nochmal nerven! (Danke Fabian, für deine Antwort zum vorherigen Beitrag).
Da ich jetzt weitergehört habe, muss ich noch einmal reingrätschen, was Gemini anbelangt.
Auch wenn meine Arbeitskollegen behaupten, ich wäre KI-Experte, bin ich da etwas bescheidener und kontere mit „Ich nutze es etwas intensiver).
Zu Gemini: „You are using it wrong“ 😉
Nein, Spaß beiseite. Ich muss hier Roman etwas widersprechen.
Die Assistant-Funktionen werden in der Regel kurz und knapp gehalten:
„Weck mich morgen um …“, „Stelle einen Timer für X Minuten“, „Ruf Roman mobil an“, „Erinnere mich heute Abend um 19 Uhr an „Roman anrufen!““, „Wie wird morgen das Wetter …“, „Navigiere mich zur Packstation sowieso in sowieso“
All das quittiert Gemini mit recht kurzen Sätzen: „Alles klar, Martin, ich werde dich heute Abend um 19 Uhr daran erinnern, Roman anzurufen.“
Das ist auch völlig in Ordnung.
Stellt man dagegen eine Wissensfrage, wird die Antwort ausführlicher. „Wer ist aktuell Bundeskanzler in Deutschland?“ Klar, da gibt es mehr Informationen zu.
Und im Live Konversationsmodus (was ihr Voice Mode genannt habt) ist Gemini natürlich in Plauderlaune, aber ChatGPT ebenfalls.
Das A und O der Konversation sind klare Instruktionen für ein LLM. Genau wie bei ChatGPT und Claude lassen sich auch in den Einstellungen von Gemini generelle Anweisungen hinterlegen.
Ich bin Roman, du bist mein Slave, du sprichst mich immer in der dritten Person an und fügst Euer Exzellenz deinen Antworten hinzu. Du antwortest immer kurz und knapp. Du schlägst niemals weitergehende Informationen vor. usw. usw.
Wenn man solch einen Masterprompt hinterlegt hat, ist das für das Sprachmodell die oberste Direktive. Der Gemini Assistant und auch der Konversationsmodus werden das als Masteranweisung berücksichtigen. Das hebelt die Standardeinstellungen aus und verhindert dann auch einen zu buddyhaften Konversationsmodus, wenn er nicht gewünscht ist.
Klar gibt es hier einige Schranken, die Google implementiert hat, aber bisher bin ich innerhalb einer Konversation noch nicht darauf gestoßen.
Also, nochmal kurz gefasst: Die Katastrophe, die Roman bei den reinen Antworten für Assistenzfunktionen, solange es keine Wissens- oder Recherchefrage sind, überzeichnet darstellt, kann ich nicht feststellen.
Das Einzige was bei Gemini aktuell wurmt (und ich weiß nicht, wie Apple das umsetzt und welche Oberfläche Apple stricken wird) ist, dass jede Sprachanfrage automatisch einen neuen Chat generiert.
Habe ich per Sprache nach dem Wetter gefragt, einen Timer gestellt, einen Anruf getätigt und später einen Termin eingestellt, habe ich zu jeder Anfrage in der Gemini App einen Chat. Das Problem kenne ich bereits von Youtube Music, wenn dort in der App plötzlich Playlist aus Youtube Video auftauchen oder umgekehrt. Google schafft es hier nicht, eindeutig zu trennen.
Bei ChatGPT und Claude lassen sich themenbezogene Projekte anlegen, deren Chats dann innerhalb der Projekte zu sehen und wiederzufinden sind.
Bei Gemini ist das momentan noch extrem chaotisch (Projekte sollen angeblich kommen). Wer hier was sucht, ist auf die globale Suche angewiesen oder muss sich die wichtigsten Chats im Seitenmenü anpinnen, aber ich merke gerade … ich schweife ab.
Apple wird hier sicherlich einen anderen Weg gehen, denn wir müssen uns von der Vorstellung lösen „Gemini wird die neue Siri“.
Schaut euch Perplexity an: Ihr merkt da erstmal nicht, mit wem ihr quatscht. Perplexity verwendet ein eigenes Sprachmodel namens Sonar, das im Unterbau Llama verwendet, bietet aber auch an, entweder manuell andere Sprachmodelle auszuwählen oder es wählt automatisch das beste für Anfrage verfügbare Modell für die Antwort.
Der Anwender merkt im Frontend so gut wie nichts bei normalen Anfragen.
Jetzt ist aber gut.
Und ihr, macht es gut. 🙂
Liebe Grüße
Martin