TikTok comienza a marcar videos independientes como peligrosos

Las etiquetas de «autoconducción» y «sin conductor» en TikTok muestran a los conductores de Tesla haciendo cualquier cosa menos conducir.

Sí, los hashtags de «autoconducción» y «sin conductor» existen en TikTok y contienen exactamente lo que se te ocurre: videos de personas que usan la función de conducción autónoma de Tesla mientras hacen cualquier cosa menos concentrarse en la carretera
Para evitar que otros usuarios abusen de la función de conducción autónoma, TikTok decidió poner una etiqueta de advertencia en este tipo de videos.
TikTok intenta eliminar la tendencia autónoma

En un tweet identificado por primera vez por La próxima web, un usuario notó una nueva etiqueta debajo de un video independiente en TikTok. La etiqueta dice: «Las acciones de este video pueden provocar lesiones graves o efectos adversos para la salud».

A pesar de eso, todavía hay toneladas de videos peligrosos de conducción autónoma en TikTok que no tienen esa etiqueta. Esto incluye videos de personas que usan el piloto automático mientras están en el asiento trasero de sus Teslas, así como videos de personas almorzando mientras «conducen». Es posible que TikTok no pueda capturar todos los videos peligrosos, pero probablemente necesitará medidas aún más estrictas para contrarrestar esta tendencia.

Lineamientos de la comunidad de TikTok establece claramente que la plataforma no permite a los usuarios «compartir contenido que los muestre participando o alentando a otros a participar en actividades peligrosas que pueden causar lesiones graves o la muerte». Teniendo esto en cuenta, ¿es una etiqueta simple realmente suficiente para evitar que los usuarios publiquen videos peligrosos que conducen por su cuenta?

Acerca de Página de soporte de Tesla, la compañía dice que los propietarios de Tesla aún deben «prestar atención» al usar la función de conducción autónoma. Los conductores también deben aceptar mantener las manos en el volante y mantener el control del automóvil antes de iniciar el piloto automático.

Relacionado: los propietarios de Tesla descubren una forma infantil de abrir la puerta de carga

Advertencias como estas no pueden hacer mucho, desafortunadamente, ya que la gente inevitablemente seguirá intentando abusar de la función de piloto automático. El 5 de mayo de 2021, un hombre murió en un accidente mientras usaba la función de piloto automático de Tesla. De acuerdo con Reuters, el conductor a menudo publicaba videos de «conducción autónoma» en TikTok.

Si TikTok continúa permitiendo a los usuarios publicar videos «divertidos» de ellos usando la función de piloto automático mientras están distraídos, es probable que más personas quieran hacer lo mismo, lo que resultará en más muertes y lesiones innecesarias.

Tanto TikTok como Tesla deben condenar el abuso del piloto automático

Al final, corresponde a Tesla y TikTok condenar la conducción autónoma distraída. Esto significa que Tesla debe dificultar el uso de la función de piloto automático mientras está distraído, y TikTok debe eliminar todos los videos peligrosos de coches que conducen solos. Hasta entonces, probablemente veremos más lesiones y muertes relacionadas con el abuso de la función de piloto automático.

Comparte:

Share on facebook
Share on twitter
Share on pinterest
Share on linkedin
On Key

Artículos recientes