Apple könnte bald gezwungen sein, mehr über seine KI-Strategien offenzulegen. Ein Antrag des National Legal and Policy Center (NLPC) fordert, dass das Unternehmen einen umfassenden Bericht über die ethischen Risiken seiner KI-Entwicklung erstellt. Hintergrund sind wachsende Bedenken darüber, wie Apple Daten für das Training seiner KI-Modelle nutzt und ob dabei ethische Standards eingehalten werden. Der Antrag soll auf der Hauptversammlung im Februar 2025 zur Abstimmung kommen. Sollte er angenommen werden, müsste Apple jährlich dokumentieren, welche Risiken bestehen und welche Maßnahmen ergriffen werden, um diese zu minimieren.
Apple hat sich in den letzten Jahren stark auf Künstliche Intelligenz konzentriert und setzt mit „Apple Intelligence“ auf eine enge Verzahnung von KI mit seinen Produkten. Während das Unternehmen sich nach außen hin als Vorreiter in Sachen Datenschutz präsentiert, bleibt unklar, wie genau es seine KI-Modelle trainiert und welche Datenquellen dabei genutzt werden. Im Gegensatz zu anderen Tech-Konzernen setzt Apple auf eine weitgehend gerätebasierte Verarbeitung, um Nutzerinformationen zu schützen. Doch nicht alle Prozesse laufen lokal ab. Bestimmte KI-Funktionen greifen auf Cloud-Server zu, was Fragen zur Datensicherheit aufwirft. Zudem hat Apple sich in der Vergangenheit auf Partnerschaften mit Unternehmen wie Alphabet (Google) eingelassen, die für umstrittene Datenschutzpraktiken bekannt sind. Kritiker befürchten, dass Apple seine strengen Datenschutzstandards in der Praxis nicht konsequent einhält.
Aktionärsantrag fordert umfassenden KI-Bericht
Der Antrag, der als „Report on Ethical AI Data Acquisition and Usage“ eingereicht wurde, zielt darauf ab, Apples Umgang mit externen Datenquellen transparent zu machen. Die Hauptforderung ist die Erstellung eines Berichts, der sich mit folgenden Aspekten befasst:
- Die Risiken, die sich aus der Nutzung externer Datenquellen für das Training von Apples KI-Modellen ergeben
- Die möglichen Auswirkungen auf das Unternehmen, seine Finanzen und die öffentliche Sicherheit
- Die Maßnahmen, die Apple bereits ergriffen hat, um diese Risiken zu minimieren
- Die Methoden zur Überprüfung der Wirksamkeit dieser Maßnahmen
Das Besondere an diesem Antrag ist, dass Apple jährlich einen aktualisierten Bericht vorlegen müsste. Damit soll verhindert werden, dass das Unternehmen die Diskussion um ethische KI-Entwicklung einfach aussitzt.
Die Frage nach der Datenbeschaffung
Ein zentraler Punkt des Antrags ist die Art und Weise, wie Apple Trainingsdaten für seine KI beschafft. Die Sorge ist, dass Apple – ähnlich wie andere große Tech-Unternehmen – auf Methoden wie Data Scraping zurückgreifen könnte, also das massenhafte Sammeln von Daten aus dem Internet ohne Zustimmung der Urheber. In der Branche ist das keine Seltenheit. Unternehmen wie OpenAI oder Google stehen immer wieder in der Kritik, weil sie geschützte Inhalte für ihre KI-Modelle nutzen. Auch Apple wurde bereits mit solchen Vorwürfen konfrontiert. Um diese Risiken zu minimieren, hat das Unternehmen versucht, für den Zugang zu bestimmten Daten zu bezahlen, etwa indem es Archive aufgekauft hat. Dennoch bleibt unklar, inwieweit Apples KI-Modelle auf urheberrechtlich geschützte Inhalte zurückgreifen.
Apples Partnerschaften werfen Fragen auf
Ein weiteres Argument des NLPC ist, dass Apple sich durch enge Kooperationen mit Alphabet indirekt an fragwürdigen Datensammlungen beteiligt. Alphabet, zu dem Google gehört, erhält durch die Standard-Suchmaschinenintegration auf Apple-Geräten Zugriff auf große Mengen an Nutzerdaten. Kritiker argumentieren, dass Apple damit bewusst eine indirekte Monetarisierung seiner Nutzerbasis zulässt, anstatt selbst Daten zu sammeln. Hinzu kommt, dass Apple zeitweise eine Partnerschaft mit OpenAI in Betracht zog. Berichten zufolge wurde Apple ein Sitz im OpenAI-Vorstand angeboten, den das Unternehmen jedoch ablehnte – offenbar aus kartellrechtlichen Bedenken. Da OpenAI in der Vergangenheit wegen intransparenter Datenbeschaffung kritisiert wurde, wirft Apples Zusammenarbeit mit dem Unternehmen weitere Fragen auf.
Wahrscheinliche Reaktion von Apple
Apple wird sich voraussichtlich gegen den Antrag aussprechen. Das Unternehmen hat in der Vergangenheit Aktionärsanträge, die eine detailliertere Berichterstattung forderten, meist abgelehnt. Da viele Aktionäre sich an den Empfehlungen von Apple orientieren, ist es unwahrscheinlich, dass der Antrag eine Mehrheit findet. Trotzdem könnte die Diskussion über Apples KI-Ethik an Fahrt aufnehmen. Der öffentliche Druck, mehr Transparenz über die Entwicklung und den Einsatz von Künstlicher Intelligenz zu schaffen, wächst. Apple könnte gezwungen sein, seine Richtlinien weiter zu überarbeiten, um Zweifel an seiner KI-Strategie auszuräumen.
Datenschutz vs. KI-Fortschritt: Kann Apple beide Ziele vereinen?
Auch wenn der Antrag vermutlich scheitert, ist die Debatte um Apples KI-Entwicklung noch lange nicht beendet. Das Unternehmen steht vor der Herausforderung, seine Datenschutzversprechen mit den wachsenden Anforderungen der KI-Entwicklung in Einklang zu bringen. Während Apple bereits Maßnahmen wie die lokale Verarbeitung von Nutzerdaten und den verschlüsselten Zugriff auf Cloud-Server implementiert hat, bleibt die Frage, wie transparent das Unternehmen seine KI-Strategie tatsächlich gestalten wird. Die kommenden Jahre werden zeigen, ob Apple seine ethischen Prinzipien wirklich konsequent durchsetzt oder ob wirtschaftliche Interessen überwiegen. (Bild: Apple)
- Apple Intelligence: Warum der Superzyklus noch wartet
- Apple setzt neue Prioritäten: Siri-Update & KI-Optimierung
- KI und Apple: Warum der Rückstand nur scheinbar ist
- Gesundheit als Priorität: Apples großer Plan für die Zukunft
- Tim Cook: Warum Apple keine Gebühren für KI-Dienste plant
- Siri 2.0: Wie LLM Siri die Konkurrenz überholen könnte