Wie jedes Jahr haben alle Nominierten die Möglichkeit, sich mit Kommentaren an info@bigbrotherawards.at zu wenden. Wir veröffentlichen dann die Reaktionen unter der jeweiligen Nominierung.
Bereits heute werden vielerorts Algorithmen und künstliche Intelligenz verwendet um Abläufe zu automatisieren, Entscheidungen vorzubereiten oder Daten auszusortieren. Doch keiner bekommt mit, wenn zum Beispiel in der Medizin oder im Bildungsbereich Entscheidungen nicht von Menschen sondern vom Computer getroffen werden.
Höchste Zeit also, dass diesseits und jenseits des Teichs gesetzliche Regelungen geschaffen werden, um uns Menschen vor unsichtbaren Entscheidungen der Computer zu schützen. [1]
Eigentlich sollte es außer Diskussion stehen, dass wir als Menschen, ein Recht haben zu wissen, wie eine Entscheidung, die uns betrifft entstanden ist und welche Daten zu dieser Entscheidung geführt haben.
Der Nutzen solcher Systeme wird der Zivilgesellschaft gerne im Rahmen von Predictive Policing [2] verkauft. Unter sträflicher Missachtung der Risiken wird phantasiert, dass wenn wir den Systemen nur noch ein wenig mehr Daten geben würden, Verbrechen vorhergesagt und verhindert werden könnten.
Doch, wie schon bei der Verabschiedung der DSGVO, setzt in der Verhandlungsphase ein Lobbying der Konzerne ein. So ist es nicht weiter verwunderlich, dass es bereits zu einer Verwässerung kommt, bevor das Gesetz überhaupt beschlossen ist. Die französische Ratspräsidentschaft will daher mehr „Flexibilität bei Hochrisiko-KI-Systemen“ ... [3]
Dass es auch anders gehen könnte zeigen US Gerichte, die in einem Urteil anordnen, dass nicht nur die illegal erhobene Daten, sondern auch die damit trainierten Algorithmen vernichtet werden müssen.
[4]
Wie die EU und die USA Algorithmen regulieren wollen
Automatisierte Entscheidungssysteme werden seit Jahren in sensiblen Bereichen wie Medizin und Bildung eingesetzt. Doch bisher gibt es keine Regelungen um Unternehmen zur Verantwortung zu ziehen. Das soll sich jetzt ändern. Sowohl die USA als auch Europa arbeiten an Gesetzesentwürfen zur Regulierung automatisierter Entscheidungen. Was steht drin? ↩︎
KI-Regeln: Über 40 Organisationen fordern Verbot von Predictive Policing
KI würde systemisch diskriminieren
Die Daten von Polizei und Justiz, die für die Entwicklung, das Training und den Betrieb von KI-Systemen verwendet werden, spiegeln laut dem Schreiben oft "eine historische, systemische, institutionelle und gesellschaftliche Diskriminierung wider". Diese führe dazu, dass gewisse Minderheiten und geografische Räume in ganz Europa "übermäßig überwacht" würden. Solche Praktiken seien so tief verwurzelt, dass die umstrittene Technik diese Ergebnisse noch verstärke. Dies sei ein inakzeptables Risiko.
.
Das Bündnis fordert daher, ein Verbot von vorausschauenden und profilbildenden KI-Systemen in der Strafverfolgung und Strafjustiz in die geplanten KI-Regeln der EU aufzunehmen. Bei den laufenden Verhandlungen über die Verordnung müsse der gesellschaftliche Schaden, der von solchen Big-Data-Verfahren ausgehe, berücksichtigt werden. Negative Folgen für die Demokratie dürften nicht unter den Tisch fallen. Zuvor hatte etwa die schleswig-holsteinische Datenschutzbeauftragte Marit Hansen zu bedenken gegeben, dass mit KI-Methoden wie Gesichts- und Emotionserkennung sowie Predictive Policing Entscheidungen nicht mehr nachvollziehbar seien. ↩︎
Neue KI-Verordnung mit „Kompromissen“ beim Datenschutz
Die französische Ratspräsidentschaft hat ihren Fortschrittsbericht zur kommenden Verordnung „Festlegung harmonisierter Vorschriften für künstliche Intelligenz“ vorgelegt. Dieser Bericht lässt kaum Zweifel offen, in welche Richtung dieser Fortschritt geht.
.
Mehr „Flexibilität für Anbieter von Hochrisiko-KI-Systemen“ durch „weniger strenge Anforderungen“, heißt es da und, dass dafür „Kompromisse“ in den Bereichen „Schutz der Privatsphäre oder Fairness“ erforderlich seien. Diese Verordnung greift nämlich tief in die bestehenden Daten- und Konsumentenschutzgesetze ein.
↩︎
Weight Watchers App: US-Gericht ordnet Zerstörung von KI-Algorithmen an
WW International (früher Weight Watchers) muss nicht nur illegal erhobene Daten, sondern auch damit trainierte Algorithmen vernichten. ↩︎