TENDENCIAS_ ¿Qué tan caro es el Internet fijo en América Latina?

El precio de la banda ancha fija es caro en todos los países de América Latina y el Caribe, y en algunos casos es impagable para la población, si se toma en cuenta el costo de Internet en relación con el ingreso nacional bruto (INB) per cápita.

De acuerdo con el informe Tendencias de Precios de las TIC 2020 de la Unión Internacional de Telecomunicaciones (UIT), sólo en Bahamas, Trinidad y Tobago, Costa Rica y Uruguay el costo de la banda ancha fija equivale al 2 por ciento o menos del INB, pero con velocidades muy bajas.

Un servicio de este tipo tiene un buen nivel de asequibilidad si alcanza dicho parámetro de 2 puntos porcentuales, ya que es el objetivo que la Comisión de la Banda Ancha para el Desarrollo Sostenible se propuso alcanzar para 2025.

Pero la mayoría de las economías latinoamericanas no han logrado conseguir esa meta. México, Chile, Brasil, República Dominicana, Barbados, Perú, Colombia, Panamá, Ecuador y Paraguay están cerca de alcanzarlo. Sin embargo, otras naciones como Jamaica, Cuba, Argentina, Guatemala, Bolivia, El Salvador, Belice, Honduras, Nicaragua y Haití tienen un largo camino por recorrer. 

Al interior de los países, también existe una brecha en el precio de Internet que impide a la población más pobre acceder al servicio. El estudio de la UIT señala que el 20 por ciento de las personas de menores ingresos no puede permitirse pagar la conexión de banda ancha fija en ningún país de las Américas.

Otro 40 por ciento de los ciudadanos más pobres se enfrentan a costos muy altos para sus bolsillos. En un caso extremo, en Honduras ni siquiera el 10 por ciento de la población con mayores recursos puede pagar la banda ancha fija; sólo es accesible para suscriptores comerciales.

En comparación, la banda ancha móvil es más barata en la región: ese es uno de los elementos que han influido en que su penetración sea más alta no sólo en América Latina sino en todo el mundo.

En Bahamas, Canadá, Costa Rica, Chile, Uruguay, Argentina, México, Brasil, Perú, Panamá y Barbados, el precio del servicio móvil de Internet es inferior o igual al 2 por ciento del INB per cápita. Y en la mayoría de los casos, los usuarios reciben entre 2 GB a 5 GB de datos.

Si bien existe un reto importante en la asequibilidad de Internet móvil en la región, la UIT destaca que es aún más preocupante la brecha en la banda ancha fija, pues los costos de esta última son menos asequibles y no han logrado disminuir tan rápidamente como la banda ancha móvil. Además, las redes fijas juegan un papel en el desarrollo digital, porque permiten habilitar conexiones de alta capacidad y cursan una mayor cantidad de tráfico de datos.

CON INFORMACIÓN VÍA DPL NEWS

Falla en configuración tira sitios de medios de comunicación en todo el mundo

The New York Times, CNN, Le Monde, The Guardian, sitios del gobierno británico, así como plataformas como Twitch y Hulu sufrieron fallas en sus páginas de internet tras un problema de configuración de su servicio de nube ofrecido por la empresa Fastly.

“Identificamos una configuración de servicio que provocó interrupciones en nuestros POP a nivel mundial y hemos desactivado esa configuración. Nuestra red global vuelve a estar en línea”, informó Fastly en su sitio web.

El incidente afectó a sitios en ciudades como Dubai, Hong Kong, Melbourne, Osaka, Singapur, Tokio, Buenos Aires, Bogotá, Río de Janeiro, Santiago, Sao Paulo, Lima, Atlanta, Boston, Chicago, Dallas, Denver (DEN), Houston, Miami, Toronto, Vancouver, Cape Town, Mumbai, Nueva Delhi, Amsterdam, Dublin, Frankfurt, Londres, Milán, París, entre muchas otras

Hace tres horas, Fastly se percató del problema e informó que investigaba el impacto potencial en el rendimiento de sus servicios de nube.

Una hora después la empresa identificó el problema y aplicó una solución.

“Los clientes pueden experimentar una mayor carga de origen a medida que regresan los servicios globales”, señaló.

Hasta ahora, Fastly indica que rápidamente ha observado la recuperación de todos los servicios y ha resuelto esta incidencia.

“Los clientes podrían continuar experimentando un período de mayor carga de origen y menor Cache Hit Ratio (CHR)”.

CON INFORMACION VIA EL UNIVERSAL

Caos en internet: estamos viviendo caídas parciales o totales de Amazon, Spotify, Reddit, o Twitch [Actualización: ya está solucionado]

Durante cerca de una hora esta mañana acceder a Amazon, Twitch, Vimeo o Reddit (entre otras muchas) ha sido impsoible. Al intentarlo aparecía un mensaje de error (normalmente un “503 Service Unavailable”), y el problema se ha debido a una caída de un CDN llamado Fastly.

Esta empresa proporciona una Content Delivery Network, una infraestructura que permite acelerar el acceso a todo tipo de contenidos web. Sus responsables han identificado el problema apenas una hora después de producirse y ya lo han corregido, lo que ha hecho que los servicios afectados estén de nuevo disponibles.

Caída brutal de múltiples servicios en internet

Los indicios apuntaban desde el principio a la caída de Fastly, un Content Delivery Network (CDN) que permite acelerar el comportamiento de esos servicios web cacheando ciertos datos para que cuando accedemos a ellos ese acceso sea casi instantáneo.

La página de información de estado de los servicios de este CDN mostraba en esos momentos cómo se había producido un incidente a las 11:58 CEST. Los responsables indicaban aproximadamente una horaa después que habían identificado el problema y que se estaba implementando la solución.

Ese incidente ha afectado a múltiples centros de datos en todo el mundo, y esa parece la causa de la caída de muchísimos servicios que hacen uso de esta plataforma de distribución de contenidos.

No importa que esos servicios estén alojados en infraestructuras como AWS o Azure: si los datos pasan por Fastly, el error se produce y hace que dichos servicios estén inaccesibles.

Entre los afectados parcial o totalmente han estado la propia Amazon, Spotify, Twitch, Vimeo, Reddit, Shopify, Giphy, Quora, o Metacritic, pero también medios de comunicación como The New York Times, la CNN, El Mundo, The Verge, Financial Times, The Guardian o Vice. Otros sitios como GitHub han estado accesibles, pero sin mostrar apenas contenido.

Al intentar acceder a todos ellos aparecía normalmente un mensaje de error “503 Service Unavailable” o bien un simple “connection failure”.

El servicio Downdetector que registra caídas de todo tipo de plataformas web mostraba durante esos momentos un aumento de incidencias en múltiples servicios como los citados, y todas ellas parecen estar extendidas por todo el mundo y no localizadas en un punto concreto.

Aunque los indicios apuntaban inicialmente a Amazon Web Services (AWS), la plataforma en la nube de Amazon, la página de información de sus servidores mostraba que todos estaban funcionando normalmente.

Desde Xataka nos pusimos en contacto con Amazon, cuyos portavoces nos indicaron que “ahora mismo no tenemos ningún comentario que hacer sobre este tema”, y añaden que “si hubiese alguna actualización” nos informarán sin falta.

Como indicábamos inicialmente, el problema se corrigió apenas una hora después de descubrirse, y todos los servicios que habían estado inaccesibles ya vuelven a estar operativos.

En Fastly indican que en estos primeros accesos a esos servicios “se podría experimentar un tiempo de carga mayor” en estos primeros momentos a medida que los servicios están volviendo a funcionar, pero más allá de eso, todo ha vuelto a la normalidad.

CON INFORMACIÓN VÍA XATAKA

Crecen consultas por Internet; falta regular las recetas

La demanda de citas médicas por internet ha crecido en México, aunque la expedición de recetas en línea para medicamentos controlados no está regulada, comentó Ricardo Moguel, director de Doctoralia para México, Colombia y Argentina.

Doctoralia ha emitido más de 22 mil recetas electrónicas para medicamentos no controlados, mencionó el directivo en entrevista con EL UNIVERSAL.

“En México todavía hay trabajo por hacer en regulación por parte de las recetas, hoy las que los médicos expiden son para comprar medicamentos no controlados”, explicó Moguel.

“Los controlados no se pueden adquirir porque hoy no hay una homologación de un sistema en las farmacias para que con el código QR ‘maten’ esa receta, pues con una electrónica un paciente podría surtirse del medicamento en varias farmacias, y eso no es correcto”.

Este es uno de los grandes desafíos que se enfrentan como país, pues en Colombia y Brasil están un paso adelante en recetas, comentó el directivo.

Mencionó que antes de la pandemia de Covid-19 había pláticas con el Instituto de Salud para el Bienestar (Insabi) para llevar las consultas digitales a lugares remotos, pero la crisis sanitaria detuvo ese proceso.

Actualmente Doctoralia tiene registrados a más de 185 mil médicos de los 270 mil que existen en el país, de acuerdo con el Inegi, lo que significa que la mayoría están en la plataforma digital que espera cerrar el año con más de 200 mil profesionales.

Derivado de la pandemia, el tráfico de usuarios buscando una cita o información en el portal creció a 5 millones de visitas mensuales, y se rebasó el millón de citas concretadas. Así, el año pasado cerró con 12 millones de citas médicas, detalló Moguel.

Doctoralia aporta a los médicos la plataforma, así como un software para administrar su consultorio, considerando consultas en línea, el expediente o notas clínicas del paciente, entre otras características, dijo.

La plataforma comenzó a operar semanas antes del sismo de septiembre de 2017 y en estos cuatro años ha visto una transformación en el sector salud.

“Hemos venido creciendo de manera muy acelerada, a tasas de hasta 500%; sin embargo, el año pasado, impulsado por la pandemia, nos hizo hiper crecer”, destacó.

La urgencia de la crisis sanitaria llevó a Doctoralia a desarrollar consultas en línea, dijo.

“Hemos generado más de 11 mil 500 consultas sólo en enero de este año, y tenemos más de 10 mil médicos con disponibilidad de dar una consulta en línea. Los pacientes en México pueden encontrar más de 70 especialidades de consulta en línea”, dijo.

Así, muchas personas que antes no tenían la posibilidad de ver a un especialista por cobertura, ahora pueden hacerlo.

En Ciudad del Carmen, Campeche, hay escasez de médicos endocrinólogos, y si se considera que en el país hay más de 12.6 millones de diabéticos, y la especialidad recomendada para atenderlos es la endocrinología, ahora es posible acceder a esa atención en línea, dijo Moguel.

Del desarrollo de Doctoralia, el directivo comentó que en la última ronda de inversión atrajeron110 millones de dólares.

“Tenemos a Goldman Sachs como parte de nuestros inversionistas, y ese dinero va a nuevas divisiones de negocio, a mejorar nuestra tecnología y a atraer talento”, afirmó.

Con información vía El Universal

Empresas de Internet amenazan con denunciar violación al T-MEC de México si se aprueba cuota de catálogo de obras nacionales

La Asociación Latinoamericana de Internet (ALAI) advirtió del inicio de arbitrajes internacionales contra México por violaciones al Tratado de Libre Comercio entre México, Estados Unidos y Canadá (TMEC) si se aprueba el proyecto de Ley Federal de Cinematografía y el Audiovisual que establece una cuota de catálogo del 15% de obras nacionales.

Sissi de la Peña, vocera de ALAI, dijo a El Heraldo de México que el establecimiento de cuotas viola los capítulos de Telecomunicaciones y de Comercio Digital del T-MEC, que establece que ninguna de las partes otorgará un trato favorable a un producto digital.

Dado que ni Estados Unidos ni Canadá han planteado algo similar, ALAI advirtió que podría iniciar arbitraje contra México por trato discriminatorio ya que la organización considera que la aplicación de cuotas obstaculizaría el intercambio comercial.

La iniciativa regulatoria fue presentada por el senador oficialista Ricardo Monreal del partido Morena. En el artículo 20 de la propuesta indica que “las plataformas digitales reservarán 15% de su catálogo para producciones cinematográficas y audiovisuales nacionales, cuya producción no exceda 25 años atrás”.

Además, establece que las obras “deberán ser producidas por productor nacional que no sea controlado por la plataforma digital” y que para “promover la visualización del catálogo de obras cinematográficas y audiovisuales nacionales… deberán generar algoritmos necesarios para asegurar la promoción que se hace al usuario final en todas las ventanas, segmentos y canales de comunicación en los cuales se ofertan las obras”.

El incumplimiento con la cuota de catálogo conllevaría multas económicas.

Con información vía Observacom/El Heraldo de México

México se rezaga en desarrollo de Puntos de Intercambio de Internet

México ocupa el sitio 20 de 22 países en el continente americano en cuanto al número de Puntos de Intercambio de Internet (IXP) que existen para dar servicio de conmutación de tráfico, de acuerdo con el estudio Cloud Computing en México del Instituto Federal de Telecomunicaciones (IFT).

Esto significa que en el país hay 0.0008 Puntos de Intercambio de Internet por cada millón de habitantes, dejando a México sólo por encima de Venezuela y Uruguay, donde la cifra es cero.

Mientras, Panamá, Canadá, Argentina, Estados Unidos y Paraguay lideran este ranking de servicios de intercambio de internet en el continente.

Los IXP inciden en la evolución de los servicios en la nube, pues generan eficiencias en el funcionamiento de los centros de datos, sobre todo en costos de conectividad y factores de desempeño, como el retardo o latencia, destaca el estudio del IFT.

“El despliegue de IXP en el territorio mexicano tiene impactos económicos y sociales positivos, ya que permite intercambiar tráfico entre diversos agentes en un punto central, reduciendo costos de tránsito y transporte, disminuye latencias, elimina la necesidad de que el tráfico intercambiado tenga que salir del país para llegar a su destino, da incentivos a contar con contenidos ubicados en territorio nacional y facilita la adopción de protocolos modernos, como es IPv6”, subraya.

Las ventajas que se pierden al no contar con Puntos de Intercambio de Internet van desde el costo de los enlaces internacionales, que podría ser menor si fueran nacionales; no se tiene infraestructura crítica local, y se carece de una oferta local para proveedores de contenidos.

Tener IXP en el país “implica acercar los contenidos incidiendo de manera positiva en la calidad de servicio y la experiencia del usuario”, indica el estudio Infraestructura de internet en América Latina de la Cepal.

¿Qué es un IXP?

Los Puntos de Intercambio de Internet son lugares físicos y neutrales, es decir, no pertenecen a gobiernos o empresas, donde se conectan varias redes para cambiar tráfico de red y en donde organizaciones se pueden reunir para compartir sus tecnologías, explica Carmen Denis, directora del proyecto IXP en Yucatán en Internet Exchange Services Yucatán A.C,

Detalla que pueden participar en un IXP universidades, iniciativa privada, gobierno y proveedores de internet o ISP’s.

“Pueden intercambiar hosting, sitios de redes sociales, plataformas de educación, más ahora en la pandemia, plataformas de servicios de colaboración, servicios en línea que ofrecen los gobiernos”, enumera.PUBLICIDAD

Un Punto de Intercambio de Internet (IXP) es un lugar físico y neutral donde se encuentran diferentes redes IP, es decir, de internet; para intercambiar tráfico local a través de un conmutador, coincide la Internet Society.

Los IXP son “una alternativa al costo de enviar tráfico doméstico de internet al extranjero, sólo para devolver ese tráfico a través de un costoso enlace internacional”, detalla la organización.

De manera que los IXP ayudan a que el tráfico se mantenga local y ayudan con un intercambio de tráfico de internet local más barato, mejor y más rápido.

Por ejemplo, si un usuario mexicano envía un correo electrónico, debido a que su proveedor está en Estados Unidos, el mensaje viaja a un Punto de Intercambio de Internet en el país vecino donde es transferido al proveedor del destinatario y de ahí viaja a la bandeja de entrada del usuario a quien envió ese correo.

Esto representa un mayor tiempo en enviar y recibir ese correo, es decir, la latencia; así como un mayor costo en el transporte del tráfico de internet.

Beneficios

En México hay dos organizaciones que han desarrollado Puntos de Intercambio de Internet: el Consorcio para el Intercambio de Tráfico de Internet, Asociación Civil (CITI) sin fines de lucro y la agrupación Internet Exchange Services Yucatán, A. C.

Carmen Denis menciona que en el país hay pocos puntos de intercambio y es un gran desafío por dos factores: la cercanía con Estados Unidos, donde hay IXP’s desarrollados, y porque los grandes operadores no ven interés en un punto local, pues venden tráfico a otras empresas en el país.

José Fonseca, director de Kio Networks Enterprise, firma que participa y hospeda el punto CITI, indica que es necesario acercar los servicios y que tengan respuesta más rápida para que cumplan su función, por eso la importancia de que el país tenga IXP’s.

México necesita de puntos de intercambio de internet no sólo porque se reducen el costo de conexión y la latencia sino porque conviene a generadores de contenido, coinciden los expertos.

Denis destaca que México se puede beneficiar de tener este tipo de sitios pues permiten un acceso más rápido, asequible y más confiable a los contenidos.

Otros beneficios de los puntos de intercambio son para el usuario final pero también para las organizaciones que los utilizan, como es el costo más bajo para el tránsito de datos pues al intercambiar el tráfico de manera local no transita largas distancias.

“Otro beneficio es en la calidad del servicio de internet, eso se refleja para los usuarios finales”, subraya Denis.

Por otra parte, las redes de distribución de contenido (CDN, por sus siglas en inglés) muestran interés por alojarse en IXP. Algunas CDN’s son Google, Facebook, Netflix, Amazon, y otras ligadas con videojuegos y redes como TikTok, comenta la directiva.

“Están interesados porque va a permitir acercar sus contenidos a los usuarios finales”.

José Fonseca, director de Kio Networks Enterprise, empresa que participa y hospeda el punto CITI, coincidió en que las redes de distribución de contenido comenzaron a percibir que debían repartir información cada vez más pesada y para ello necesitan IXP’s locales.

“Que esos contenidos tenían que acercarse a los consumidores y no sólo son Google, Netflix o Disney, sino los gobiernos que quieren distribuir contenido y tenerlo cerca, las universidades con capacitación y aprendizaje a distancia”, detalla Fonseca.

El incremento de usuarios de internet aumenta el tráfico en la red y hace que se requiera acercar el contenido al usuario.

También las empresas de telecomunicaciones se están convirtiendo en agregadores de contenido y se dan cuenta de la importancia de acercarse y colocarse cerca de los IXP’s, asegura el directivo de Kio Networks.

Cuando Texas tuvo problemas de electricidad, diversas empresas que ofrecen el servicio de internet en México tuvieron problemas pues se conectan a nodos concentradores de tráfico de red en Estados Unidos.

Esa situación pudo evitarse si el intercambio de internet se diera en el país.

Los IXP permiten una mejor recuperación de la red cuando hay una situación de incidencias, por ejemplo, alguna falla fuera del país, como sucedió en Texas, menciona Denis.

Fonseca dijo que tener más tráfico local habría sido un diferenciador con ese evento, pues es importante la continuidad de servicios críticos.

“Esa operación continua nos sirve pues tenemos la resolución de una buena parte de los servicios aquí”, así, los usuarios finales no padecen las fallas, dijo.

Con información vía El Universal

PERSPECTIVA_Amplio consenso en México: regulaciones sobre Internet requieren un debate con la participación de múltiples actores


Las regulaciones sobre Internet en México deben ser debatidas con la participación de múltiples actores interesados y las propuestas deben estar en línea con los estándares de libertad de expresión, es el amplio consenso entre expertos/as  que participaron del Seminario Internacional «Moderación de contenidos y la protección de la libertad de expresión de los usuarios de redes», organizado por UNESCO y OBSERVACOM, el viernes 12 de marzo. El diálogo continuará el 24 de marzo.

El Vocero y Coordinador de Comunicación Social de Presidencia de la República, Jesús Ramírez, sostuvo que el Estado no debería tener el control de lo que se dice en Internet, ni tampoco las empresas privadas. “Aquí la sociedad tiene que construir espacios de contrapesos vivos”, dijo. Agregó que “las redes sociales tienen que hacer transparentes los criterios que usan (para moderar contenidos). Facebook y Twitter deben transparentar sus algoritmos. La exigencia de transparencia no es solo para el Estado”.

Por su parte, el Director Ejecutivo de OBSERVACOM, Gustavo Gómez dijo que “no se pueden construir política pública sin consensos” si se pretenden soluciones robustas y sostenibles, se necesita un debate abierto y multistakeholder. “Abrimos junto a UNESCO este espacio de diálogo y tenemos la expectativa de que ustedes puedan encontrar soluciones para que haya una Internet más libre y más abierta, y que haya más libertad de expresión, y no menos”, aseguró.

Para Rosa María González, Consejera Regional en Comunicación e Información de UNESCO “las plataformas ejercen un enorme poder y sus decisiones no tienen apoyo en estándares públicos”. “El camino no vendrá de regulación de contenidos sino de la combinación de regulación, autorregulación y co-regulación de procesos, con foco en la transparencia tanto de las políticas y prácticas publicitarias, del modelo económico, de las decisiones de moderación y diseño de estas plataformas”, aseguró, y señaló que los principios DAAM (derechos, apertura, accesibilidad y multiplicidad) de UNESCO podrían ser una guía para las regulaciones sobre los intermediarios de Internet.

En la misma línea, Guilherme Canela, Jefe de la Sección de Libertad de Expresión la UNESCO, dijo que “cualquier decisión de la regulación debe preservar la arquitectura de Internet” y agregó que UNESCO desarrolló principios para guiar la estructura regulatoria en base a principios de regulación, autorregulación y corregulación. Explicó que los principios DAAM, si bien no aluden a moderación de contenidos, sirven como base para construir cualquier regulación sobre el tema.

El Oficial de Tecnología y Derechos Humanos de la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, Scott Campbell, aseguró que “la plaza pública digital no está disponible para todos… Algunos son escuchados y otros no… los sistemas de moderación pueden discriminar lenguas indígenas porque estos sistemas privilegian lenguas dominantes”. Además planteó que la “concentración de poder de redes sociales puede afectar el pluralismo”.

Campbell destacó seis puntos para abordar las regulaciones sobre moderación de contenidos por parte de las plataformas de Internet: primero, asegurar un debate amplio y democrático; segundo, la regulación debe seguir a los estándares de derechos humanos; tercero, evitar ambigüedades sobre lo que constituye un contenido ilícito; cuarto, las regulaciones deben exigir a las plataformas la existencia de revisión humana para la moderación de discursos; quinto, los Estados deben exigir transparencia a las empresas sobre la moderación de contenidos y, al mismo tiempo, los Estados deben ser transparentes sobre lo que piden a las empresas. Por último, Campbell señaló que los usuarios deben poder apelar decisiones que toman las plataformas sobre sus contenidos.

Además de los representantes de organismos de derechos humanos, participaron del Seminario representantes de organismos públicos de México.

Roberto Duque, representante de la Secretaría de Gobernación del gobierno federal mexicano, sostuvo que un reto mayúsculo en relación a las plataformas de Internet tiene que ver con la transparencia. Explicó que al hablar de Internet, hay que tener cuidado con equiparar la regulación de redes sociales a la de medios tradicionales. “Las redes sociales no utilizan la red publica de telecomunicaciones sino Internet”, explicó.

“No se trata de que se impongan reglas que limiten los derechos, ni de interferir con el funcionamiento de una red social o que una entidad pública defina qué puede circular y qué no por las redes… Una regulación sobre Internet debería apuntar a potenciar los enormes beneficios de las redes sociales e inhibir los riesgos”, concluyó.

El senador Ricardo Monreal, quien recientemente presentó una iniciativa para regular las redes sociales en México, dijo que la regulación de Internet requiere una discusión global para que haya normativas adecuadas a nivel nacional e internacional. “No podemos confiar en que las empresas privadas se autorregulen y que decidan qué contenidos o cuentas de usuarios borrar”, enfatizó.

Por su parte, el diputado Javier Hidalgo planteó que “es legítimo todo marco jurídico que quiera regular estos servicios (de Internet) y explicó los alcances de un proyecto de Ley Federal de Protección al Usuario Digital que presentó al Congreso que incluye mecanismos para conocer argumentos y lógica con la que plataformas toman decisiones, así como regular a las plataformas preponderantes y la portabilidad de información entre plataformas.

Por su parte, el Comisionado del Instituto Federal de Telecomunicaciones (IFT) sostuvo que cualquier limitación a la libertad de expresión debe estar claramente establecido por Ley, tal como lo dispone la Constitución mexicana y los Pactos Internacionales.

“No parece haber un caso claro de que las limitaciones a la libertad de expresión puedan ser diseñadas por particulares (redes sociales)…. Sería dejar a discreción de un particular los límites a la libertad de expresión”, aseguró.

Explicó que si se considera que este es un tema de interés público que requiere intervención de los poderes públicos, “tenemos que ver cuál es el grado deseable de intervención….El enfoque debe ser de múltiples partes, no solo en el diseño sino también en la implementación de la normativa”, señaló.

Se debe fortalecer la cooperación entre las partes para la implementación de medidas regulatorias de Internet. “Deben colaborar los gigantes tecnológicos para la elaboración de normas”, concluyó.

Luego fue el turno de representantes de organizaciones de sociedad civil que se manifestaron críticos respecto del anteproyecto del senador Monreal.

Priscilla Ruíz, Coordinadora Legal de Derechos Digitales de Artículo 19 de México, presentó evidencias para sostener que la remoción de contenidos no solo la hacen plataformas, “la moderación y remoción son ejercidos por el Estado Mexicano desde aparato federal hasta entidades federativas”. Asimismo, planteó que algunos de los mecanismos que deben ser contemplados para la regulación de las plataformas de Internet son la notificación al infractor, el debido proceso frente a las partes, énfasis en términos y condiciones con definiciones claras y de acuerdo a derechos humanos; desagregación de datos y mecanismos de apelación expeditos y efectivos.

En tanto la representante de Políticas Públicas y Relaciones Gubernamentales de la Asociación Latinoamericana de Internet (ALAI), Sissi de la Peña, enfatizó en que “toda regulación debe preservar la arquitectura abierta de Internet… la regulación no debe inhibir el desarrollo del sector”. También manifestó su preocupación en torno a la iniciativa presentada por el senador Monreal, en especial porque «bajo la definición de redes sociales prácticamente todos los servicios que se ofrecen en la capa de Internet están sujetos a ser controlados por un organismo público y, por tanto, de aprobarse, se pondría en riesgo la propia naturaleza descentralizada y abierta de la red”.

“Este es un debate que no se puede agotar en tres semanas y no se debate solo entre sector público y privado, debe incluir muchos actores; academia, sociedad civil. El debate debe continuar y ser extenso”, concluyó.

Por su parte, Jorge Bravo, Presidente de la Asociación Mexicana del Derecho a la Información (AMEDI), destacó que una cualidad de Internet es su colaboración. Planteó que el anteproyecto de Monreal condiciona la libertad de expresión. Además indicó que el IFT no solo se vería rebasado en sus funciones, sino que sus decisiones tendrían matiz político. Explicó que el regulador es un organismo administrativo que no cuenta con idoneidad en materia de libertad de expresión y extender su alcance sobre la moderación de discursos en Internet, excedería el mandato constitucional.

El Director Ejecutivo de Red por la Defensa de Derechos Digitales (R3D), Luis Fernando García, sostuvo que la propuesta regulatoria genera incentivos para que las plataformas censuren, por eso es importante el principio de no responsabilidad legal de intermediarios sobre contenidos de terceros.

“Si plataformas no pudieran moderar contenidos, la experiencia de usuarios sería intransitable… Hoy no hay evidencia que redes hayan usado moderación para silenciar grupos políticos o étnicos”, explicó y agregó que es importante enfocarse en una definición clara y acotada sobre plataformas a ser reguladas, así como se deberían contemplar elementos como la desagregación entre la empresa que aloja el contenido y la encargada de la moderación, del mismo modo que la apelación de las decisiones tampoco puede ser parte de la misma compañía que es cuestionada.

Por último, Cynthia Solís de Internet Society México (ISOC), enfatizó en que “pugnamos por una regulación que entienda estructura de red y que no atente contra derechos… el modelo de autorregulación ha sido muy criticado e incomprendido… los modelos de co-regulación y autorregulación vinculante son propicios (para el entorno de Internet)”.

PUEDE VER EL VIDEO AQUI (FACEBOOK): https://fb.watch/4l6qQ4BGqd/

CON INFORMACIÓN VÍA OBSERVACOM

Claro TV de Carlos Slim consigue una autorización para vender capacidad satelital en México

Claro TV, la división sudamericana de América Móvil en telecomunicaciones fijas, móviles y de reciente constitución como empresa en México, consiguió una autorización para proveer capacidad de servicios satelitales en territorio nacional, a través de la banda KU con el satélite Star One D1 que brinda cobertura a toda América del Norte.

La autorización perteneció originalmente a Claro Sat, otra de las subsidiarias de América Móvil, que tras una serie de solicitudes de modificación a su título de autorización y el establecimiento de su marca comercial ocurrido entre 2018 y 2020, cedió la licencia a Claro TV, también después de que esta compañía formalizara en 2019 una petición para comercializar servicios de televisión de paga en el país, solicitud que aún es analizada por la autoridad reguladora.

Claro TV está facultada entonces desde febrero de 2021 para proveer capacidad satelital para la prestación de servicios de telefonía o Internet, y cuenta con la tecnología para facilitar la oferta de video restringido, pero no está claro todavía si Claro TV puede vender capacidad satelital que signifique una prestación indirecta de productos de video, al que el resto de empresas relacionadas con el grupo América Móvil están impedidas por un mandato regulatorio del 2014 o por título de concesión desde 1990. 

En esa materia, Claro TV también vive en un limbo, porque hoy no le es aplicable la regulación asimétrica que sí cae sobre Telmex y Telcel, y porque tampoco cuenta con un título de concesión debido a que el regulador IFT no ha negado ni avalado todavía su petición para vender video aquí; sólo le entregó una autorización para vender capacidad satelital.

Lo que sí está claro, es que Claro TV está imposibilitada hoy para proveer esos servicios de forma directa y el tercer operador que le contrate insumos, debe contar también con un título habilitante, una concesión única, por ejemplo, para comercializar cualesquiera de esos productos o una combinación empaquetada de ellos.

América Móvil, propiedad del empresario Carlos Slim, ya estudiaba desde el año 2016 la manera de comercializar productos satelitales en México, pues entonces alistaba el lanzamiento del satélite Star One D1 y pensó en ofrecer algún tipo de producto masivo de la mano de Telmex.

En Brasil, desde donde América Móvil maneja su flota satelital, los Star One prestan servicios de televisión, Internet, telefonía, servicios de comunicación empresarial y productos de educación a distancia, a través de la banda KU.

Más allá de que Claro TV estaría allanando su camino al negocio del video en México con esta maniobra que involucró a Claro Sat, la compañía se convierte ahora en un nuevo actor que proveerá insumos para que terceras empresas vendan, entre otros, productos de Internet inalámbrico fijo vía satélite, un segmento de mercado en el que ya participan marcas como HughesNet, Viasat, Star Go, Dish de MVS Comunicaciones y Sky de Grupo Televisa como operadores directos.

El 3 de abril de 2019, El Economista desveló que Claro TV S.A. de C.V. era la subsidiaria América Móvil que había presentado una solicitud de ingreso al negocio de la televisión restringida ante el Instituto Federal de Telecomunicaciones (IFT) a fines del 2018. Este medio también adelantó entonces que Claro TV prometió al Estado mexicano una inversión cercana a 6,000 millones de pesos, si conseguía la concesión para vender productos de video en territorio nacional. 

En septiembre de ese mismo año, se confirmó que América Móvil garantizó una inversión inicial de 6,028 millones 678,884 pesos para los primeros despliegues de servicios de Claro TV que llegarían a los consumidores a través de la señal del satélite Star One D-1 como primera etapa y después, a través de redes de fibra óptica desde las que enviaría un producto de televisión IP.

Claro TV anunció que, de conseguir la concesión solicitada, su servicio sería de alcance nacional, a través de redes satelitales y fijas de fibra óptica, un insumo que sería contratado a proveedores mayoristas, como Telmex y otras empresas de terceros agentes económicos, para llegar más rápidamente a los 1,408 municipios de mayor relevancia para el mercado.

La empresa descartó, por ese entonces, comprar espectro para sus despliegues de servicios, pues dijo que buscaría la manera de contratar capacidad espectral a empresas hermanas como Telcel o la Red Compartida de Altán Redes, para completar sus ofertas allí donde fuese necesario.

El Instituto Federal de Telecomunicaciones no se ha manifestado aún sobre la petición de Claro TV para vender televisión de paga y otros productos de video en México. 

El regulador se encuentra hoy con la actualización de la regulación asimétrica para Telmex-Telnor/Telcel, derivada ésta de las revisiones bienales y estudia también qué tipo de medidas serán aplicables para Grupo Televisa, luego que esa empresa resultó un agente con poder sustancial de mercado en televisión de paga en 35 plazas de la República. 

Y en el camino, el IFT resolverá si la política de preponderancia alcanza a Claro TV, pues los accionistas Sercotel S.A. de C.V. y Amov IV S.A. de C.V., que también controlan Telcel, sí hacen parte del grupo de interés económico calificado como agente económico preponderante de las telecomunicaciones mexicanas.

Con información vía El Economista

TENDENCIAS. Ahorro y desconexión digital, los beneficios de un sitio web alimentado con energía solar

“Una de las razones más importantes por las que internet consume cada vez más energía es que las páginas o los contenidos en general son cada vez más pesados y si algo pesa más, necesitas más energía para transportarlo”, dijo Kris De Decker, periodista de ciencia y tecnología y creador del medio digital Low Tech Magazine, una revista que funciona con energía solar.

De Decker comenzó su carrera como periodista de ciencia y tecnología en revistas y periódicos de Bélgica. Después de 10 años de escribir sobre tecnologías y dispositivos de avanzada que prometían solucionar los grandes problemas de la sociedad, se percató de que, en muchas ocasiones, este tipo de soluciones técnicas eran temporales e inevitablemente, generaban otros problemas.

“He empezado mi propia revista para hablar de esto. Porque muchas veces los políticos, las empresas y las personas en general están buscando soluciones en la tecnología, pero hay otras maneras de solucionar las cosas. Se puede innovar de diferentes formas; no siempre se tiene que recurrir a la tecnología para resolver los problemas que causa la tecnología”, dijo.

Low-Tech Magazine no comenzó como un sitio alimentado por energía solar, pero los reclamos de lectores que veían una contradicción entre los temas tocados por la revista, en contra de la alta tecnología, y que el propio sitio dependiera de internet llegaron a su editor.

“Yo intento hacer lo que digo; porque, por ejemplo, si escribes del daño que ocasionan los aviones al medio ambiente y luego te montas en un avión, no hay mucha congruencia”.

En 2018, De Decker recibió una propuesta de dos estudiantes estadounidenses para rediseñar el sitio web, una sugerencia que aprovechó para pensar acerca de cómo podría diseñar un sitio web de baja tecnología, un sitio web sustentable.       

Low Tech Magazine funciona a base de energía solar desde hace dos años. Consta de celdas solares conectadas a una batería que alimenta un servidor en donde se almacena el sitio web. Dado que está basado en energía solar, si el sol no sale en dos días, el sitio web queda fuera de línea, lo que De Decker considera una ventaja. 

“Cada vez estamos conectados más tiempo y quizá no es mala idea que no estemos todo el tiempo en línea, es decir que hay vida fuera del internet”, dijo.

De acuerdo con el reporte “Austeridad TIC: hacia la sobriedad digital” publicado por el think tank francés The Shift Project en 2019, la fabricación de dispositivos electrónicos, su multiplicación y el uso intensivo que se les da han provocado que el consumo de energía de las Tecnologías de la Información y Comunicaciones (TIC) crezca a una tasa anual de 9% desde el 2010.

“Esta tendencia es muy intensa: el consumo de energía promedio de los sitios web se ha multiplicado por tres en 10 años y por eso el sitio que hemos hecho es muy ligero, pues vuelve al peso promedio de una página de los años 90”, dijo De Decker. 

Para el periodista, la intensidad en el uso de internet y sobre todo de sitios como Facebook se debe a que la mayoría de las personas siempre han creído que internet es algo virtual, es decir que pasa como algo que no existe, aunque sea evidente que existe “una infraestructura sin la cual nadie puede conectarse a nada”.

Además de mostrar los componentes que hay detrás de un sitio web: un servidor, una fuente de energía y cables eléctricos, Low Tech Magazine busca hacer reflexionar acerca de las estrategias para mejorar la tecnología.

Su ejemplo son las redes 5G, una tecnología de redes que ya está siendo ampliamente habilitada en varios países y que incrementa la velocidad de conexión a internet hasta 100 veces en comparación a su predecesora el 4G; además de que reduce al mínimo la latencia de estas conexiones.  

No obstante, para De Decker, algo similar ocurre cuando se combina la tecnología 4G con un contenido más ligero, como el que produce Low Tech Magazine.

“Al principio yo tenía muchas dudas, pero ha habido mucha retroalimentación y hemos aprendido que hay personas que están haciendo lo mismo con la transmisión de video (streaming). Con poco esfuerzo puedes hacer un video 90% más ligero”.

La barrera a la hora de conseguir que se diseñen productos digitales más ligeros radica, según el periodista, en que quien diseña los sitios web, por ejemplo, no tienen en consideración el peso o el tamaño de sus páginas, “básicamente porque los desarrolladores tienen supercomputadoras y conexiones a internet muy veloces; además de que no creen que use energía porque es virtual”.

Low Tech Magazine es un experimento, una demostración de que es posible innovar sin recurrir a los más adelantados avances tecnológicos. Por supuesto, nadie espera que la banca o el gobierno digitales funcionen con energía solar, pero al menos sí podemos reflexionar sobre que las nuevas tecnologías no son desarrolladas siempre para mejorar la vida, ya que “puede ser que simplemente una empresa quiera ganar más dinero”, dijo De Decker.

Para acceder a Low Tech Magazine haz clic aquí: https://solar.lowtechmagazine.com/es/   

Con información vía El Economista

Internet y radiodifusión no son lo mismo: Red en Defensa de los Derechos Digitales (R3D)

Equiparar a internet con la radio y la televisión es un error, porque técnicamente son distintas, dijo Luis Fernando García, director de la Red en Defensa de los Derechos Digitales (R3D).

La pluralidad se amplió con internet, dijo. Antes había interés en lo que sucedía con los monopolios de radiodifusión, pero el aumento en el acceso de las personas a internet ha permitido que puedan tener más fuentes de información.

“El poder que tenía Televisa, por ejemplo, se ha reducido porque existen otras fuentes de información”, dijo García durante un foro sobre regulación de plataformas digitales y libertad de expresión.

El director de R3D destacó que se trata de medios distintos: la radiodifusión es masiva y unilateral, mientras que internet es un medio multidireccional, instantáneo, globaL, y tiene muchas características distintas que lo hacen un ecosistema mucho más complejo.

Este miércoles, el senador de Morena, Ricardo Monreal, aseguró que las redes sociales, al igual que los medios tradicionales como la radio y la televisión, utilizan redes de telecomunicaciones y espectro radioeléctrico.

“Todos estos servicios utilizan redes públicas de telecomunicación y el espectro radioeléctrico es el mismo como medio de transmisión, es decir, requiere los mismos insumos para proveer el servicio a la población. Tanto las redes sociales, como los medios de comunicación tradicionales, cumplen en esencia los mismos objetivos: informar y entretener”, mencionó a través de un video compartido en Twitter.

A principios de esta semana, el senador de Morena adelantó que dará a conocer una iniciativa para regular a las redes sociales que hay en México.

Al respecto, García mencionó que hace siete meses se aprobó un esquema de censura en internet relacionado con la responsabilidad de intermediarios, donde Twitter se hace responsable si no baja contenidos que alguien alegue que violan derechos de autor, tema que se encuentra pendiente de ser discutido en la Suprema Corte de Justicia de la Nación (SCJN).

Por otra parte, Agustina del Campo, directora del Centro de Estudios en Libertad de Expresión y Acceso a la Información (CELE) de la Universidad de
Palermo, Argentina, dijo que las restricciones que las empresas aplican sobre el contenido o libertad de expresión de sus usuarios o clientes no siempre constituyen censura.

Esto aplica para empresas que trabajan en términos analógicos como la prensa, que tiene la libertad de elegir al periodista, la nota y línea editorial, como para las empresas de internet, las cuales tienen la habilidad de establecer reglas de conducta en su plataformas, lo que no necesariamente significa censurar, mencionó.

Con información vía El Universal