TikTok beginnt, selbstfahrende Videos als gefährlich zu kennzeichnen

Ja, auf TikTok gibt es Hashtags für "Selfdriving" und "Driverless", die genau das enthalten, was Sie vielleicht denken – Videos von Personen, die die Selbstfahrfunktion ihres Tesla verwenden, während sie sich nur auf die Straße konzentrieren.

Um andere Benutzer davon abzuhalten, die Selbstfahrfunktion zu missbrauchen, hat TikTok beschlossen, diese Arten von Videos mit einem Warnschild zu versehen.

TikTok versucht, den selbstfahrenden Trend zu töten

In einem Tweet, der erstmals von The Next Web entdeckt wurde , bemerkte ein Benutzer ein neues Label unter einem selbstfahrenden Video auf TikTok. Auf dem Etikett steht: "Die Aktionen in diesem Video können zu schweren Verletzungen oder gesundheitsschädlichen Auswirkungen führen."

Trotzdem gibt es auf TikTok immer noch Unmengen gefährlicher selbstfahrender Videos, die dieses Label nicht haben. Dazu gehören Videos von Personen, die Autopilot auf dem Rücksitz ihres Teslas verwenden, sowie Videos von Personen, die während des "Fahrens" zu Mittag essen. TikTok ist möglicherweise nicht in der Lage, jedes einzelne gefährliche Video aufzunehmen, benötigt jedoch wahrscheinlich noch strengere Maßnahmen, um diesem Trend entgegenzuwirken.

In den Community-Richtlinien von TikTok heißt es eindeutig, dass Benutzer auf der Plattform nicht "Inhalte teilen dürfen, in denen sie an gefährlichen Aktivitäten teilnehmen oder andere dazu ermutigen, an gefährlichen Aktivitäten teilzunehmen, die zu schweren Verletzungen oder zum Tod führen können". Ist ein einfaches Etikett vor diesem Hintergrund wirklich ausreichend, um Benutzer davon abzuhalten, gefährliche selbstfahrende Videos zu veröffentlichen?

Auf der Support-Seite von Tesla gibt das Unternehmen an, dass Tesla-Besitzer bei der Verwendung der Selbstfahrfunktion immer noch "aufpassen" müssen. Der Fahrer muss außerdem zustimmen, die Hände am Lenkrad zu halten und die Kontrolle über das Fahrzeug zu behalten, bevor er den Autopiloten einschaltet.

Verwandte: Tesla-Besitzer entdecken eine kindische Möglichkeit, den Ladeanschluss zu öffnen

Warnungen wie diese können leider nur so viel bewirken, da unweigerlich immer noch versucht wird, die Autopilot-Funktion zu missbrauchen. Am 5. Mai 2021 wurde ein Mann bei einem Absturz getötet, als er die Autopilot-Funktion von Tesla verwendete. Laut einem Bericht von Reuters hat der Fahrer häufig "Full Self Driving" -Videos auf TikTok gepostet.

Wenn TikTok es Benutzern weiterhin ermöglicht, "lustige" Videos von ihnen mithilfe der Autopilot-Funktion zu veröffentlichen, während sie abgelenkt sind, werden wahrscheinlich mehr Menschen dasselbe tun wollen, was zu unnötigeren Todesfällen und Verletzungen führt.

Sowohl TikTok als auch Tesla müssen den Missbrauch von Autopiloten verurteilen

Am Ende fällt es Tesla und TikTok auf die Schultern, abgelenktes Selbstfahren zu verurteilen. Dies bedeutet, dass Tesla es schwieriger machen muss, die Autopilot-Funktion abzulenken, und TikTok sollte gefährliche selbstfahrende Videos vollständig entfernen. Bis dahin werden wir wahrscheinlich noch mehr Verletzungen und Todesfälle im Zusammenhang mit dem Missbrauch der Autopilot-Funktion sehen.