Por qué Apple sacó Telegram de la Store

Si de algo quiere presumir Apple es que los filtros empleados para publicar aplicaciones en sus plataformas suelen ser más rigurosos que el de sus competidores, pero en ocasiones ha ocurrido que se saltaron las barreras y se logró introducir códigos malicioso o malware. También contenido inapropiado, que es lo que ha sucedido precisamente a la aplicación de mensajería Telegram, que se retiró temporalmente de la tienda Apple Store.

telegram-apps

 

Las razones de esa expulsión no habían trascendido hasta el momento. Según informa el medio especializado «9to5Mac», que desvela avances de la marca norteamericana, Apple eliminó el servicio de chat, competencia de WhatsApp, porque supuestamente servía para distribuir contenido de pornografía infantil entre los usuarios.

Esto era algo que ya se rumoreó en un primer momento. Sin embargo ahora se ha confirmado que fue a raíz de un plugin o complemento de terceros que se instala en la aplicación, y que estaba siendo usado para compartir este tipo de imágenes. Eso no quiere decir que todos los usuarios recibieran contenido inapropiado como lo ha catalogado la empresa, sino que se ha descubierto que algunos usuarios lo hicieron.

Una respuesta de Phil Schiller, vicepresidente de marketing mundial de productos de Apple, ha confirmado al medio citado anteriormente que Telegram se retiró durante varias horas de la Apple Store, cuando la compañía norteamericana confirmó que este servicio de mensajería estaba siendo utilizado para compartir pornografía infantil, considerado ilegal y con penas marcadas.

Una vez verificada la existencia de este contenido, el equipo de desarrolladores de Apple decidió eliminar el servicio de chat de la tienda de aplicaciones, alertando previamente al desarrollador y notificando a su vez a la autoridad gubernamental del país, «NCMEC (Centro Nacional de Menores Desaparecidos y Explotados) de estas actividades ilegales. De momento, no se dio a conocer si el contenido pornográfico se distribuyó a través de Telegram o si se utilizó un complemento de terceros para hacerlo.

«Nunca permitiremos que las aplicaciones distribuyan contenido ilegal en la App Store y tomaremos medidas lo antes posible cada vez que descubramos dicha actividad. Sobre todo, aplicaremos una tolerancia cero a cualquier actividad que ponga a los niños en riesgo: la pornografía infantil es malvado, ilegal e inmoral», dijo en un comunicado Pavel Durov, consejero delegado de Telegram.

No es la primera vez que en las aplicaciones de la Apple Store se distribuye pornografía infantil. En 2013, el servicio 500px -usado para compartir fotografías personales-, sirvió para distribuir imágenes explícitas y desnudos de menores. Un material que una vez descubierto a raíz de una denuncia, se retiró de la Store. En los últimos años, una las formas para colar ese tipo de vídeos se dan a través de Twitter o Snapchat, por ejemplo.

Ariel

Estudiante de Comunicación Social.

Noticias Recientes

Suscríbete a nuestro Boletín

Síguenos

Puedes estar al día de las mejores noticias siguiéndonos en nuestras redes sociales!

Lo popular de este mes