Laut einer neuen Umfrage misstrauen die meisten Menschen der KI und wollen Regulierung

Die meisten amerikanischen Erwachsenen vertrauen Tools der künstlichen Intelligenz (KI) wie ChatGPT nicht und machen sich Sorgen über deren möglichen Missbrauch, wie eine neue Umfrage ergab. Dies deutet darauf hin, dass die häufigen Skandale rund um von KI erstellte Malware und Desinformation ihren Tribut fordern und dass die Öffentlichkeit möglicherweise zunehmend aufgeschlossener für Ideen zur KI-Regulierung sein könnte.

Die Umfrage der MITRE Corporation und der Harris Poll besagt, dass nur 39 % der 2.063 befragten US-amerikanischen Erwachsenen glauben, dass die heutige KI-Technologie „sicher und geschützt“ ist, ein Rückgang von 9 % gegenüber der letzten Umfrage der beiden Unternehmen im November 2022.

Die Hand einer Person hält ein Smartphone. Das Smartphone zeigt die Website für die generative KI ChatGPT an.

Als es um konkrete Bedenken ging, machten sich 82 % der Menschen Sorgen über Deepfakes und „andere künstlich hergestellte Inhalte“, während 80 % befürchteten, dass diese Technologie bei Malware-Angriffen eingesetzt werden könnte. Eine Mehrheit der Befragten machte sich Sorgen über den Einsatz von KI bei Identitätsdiebstahl, der Erfassung personenbezogener Daten, dem Ersatz von Menschen am Arbeitsplatz und vielem mehr.

Tatsächlich zeigt die Umfrage, dass die Menschen hinsichtlich der Auswirkungen von KI in verschiedenen Bevölkerungsgruppen immer vorsichtiger werden. Während 90 % der Babyboomer über die Auswirkungen von Deepfakes besorgt sind, machen sich 72 % der Mitglieder der Generation Z ebenfalls Sorgen über das gleiche Thema.

Obwohl jüngere Menschen gegenüber KI weniger misstrauisch sind und sie eher in ihrem Alltag nutzen, bestehen weiterhin große Bedenken in einer Reihe von Bereichen, unter anderem, ob die Industrie mehr tun sollte, um die Öffentlichkeit zu schützen, und ob KI reguliert werden sollte.

Starke Unterstützung für Regulierung

Ein Laptop öffnete die ChatGPT-Website.

Der Rückgang der Unterstützung für KI-Tools ist wahrscheinlich auf monatelange negative Meldungen in den Nachrichten über generative KI-Tools und die Kontroversen um ChatGPT , Bing Chat und andere Produkte zurückzuführen. Während sich die Geschichten über Fehlinformationen, Datenschutzverletzungen und Malware häufen, scheint es, dass die Öffentlichkeit immer weniger aufgeschlossen gegenüber der bevorstehenden KI-Zukunft ist.

Auf die Frage in der MITRE-Harris-Umfrage, ob die Regierung bei der Regulierung der KI eingreifen sollte, sprachen sich 85 % der Befragten für die Idee aus – 3 % mehr als beim letzten Mal. Dieselben 85 % stimmten der Aussage zu, dass „KI für die öffentliche Nutzung sicher zu machen, eine landesweite Anstrengung von Industrie, Regierung und Wissenschaft sein muss“, während 72 % der Meinung waren, dass „die Bundesregierung mehr Zeit und Mittel auf KI konzentrieren sollte.“ Sicherheitsforschung und -entwicklung.“

Interessant ist die weit verbreitete Befürchtung, dass KI zur Verbesserung von Malware-Angriffen eingesetzt werden könnte. Wir haben kürzlich mit einer Gruppe von Cybersicherheitsexperten zu genau diesem Thema gesprochen und es schien Konsens darüber zu geben, dass KI zwar in Malware eingesetzt werden könnte, sie derzeit jedoch kein besonders starkes Werkzeug ist. Einige Experten waren der Ansicht, dass die Fähigkeit, effektiven Malware-Code zu schreiben, unzureichend sei, während andere erklärten, dass Hacker in öffentlichen Repositories wahrscheinlich bessere Exploits finden würden, als wenn sie KI um Hilfe bitten würden.

Dennoch könnte die zunehmende Skepsis gegenüber allem, was mit KI zu tun hat, letztendlich die Bemühungen der Branche prägen und Unternehmen wie OpenAI dazu veranlassen, mehr Geld in den Schutz der Öffentlichkeit vor den von ihnen veröffentlichten Produkten zu investieren. Und angesichts dieser überwältigenden Unterstützung sollten Sie sich nicht wundern, wenn Regierungen eher früher als später mit der Verabschiedung von KI-Vorschriften beginnen.