Archives marzo 2022

Mesa 22 incluye soporte de Vulkan 1.3 y notables mejoras para AMD e Intel

Mesa 22 ya está disponible para continuar con el desarrollo y la evolución de la pila de drivers encargada de suministrar el soporte para las API Vulkan y OpenGL en Linux y otros sistemas operativos tipo Unix. En esta ocasión nos encontramos con la adopción de Vulkan 1.3 y ciertas mejoras significativas para Intel, cuyo soporte intenta mejorar a toda velocidad ante la proximidad de sus gráficas dedicadas.

Para empezar, tenemos el soporte de Vulkan 1.3, o al menos la inclusión de algunas de sus extensiones, en ANV (Intel) y RADV (Radeon). Sin embargo, la adopción de dicha versión de la API no tiene que confundir a los usuarios, porque mientras RADV es capaz de competir en potencia con lo ofrecido por NVIDIA desde hace tiempo, por ahora ANV se encuentra algo lejos de tener un estado óptimo para la ejecución de videojuegos.

En lo que respecta a Intel, Mesa 22 ha traído el soporte para Alder Lake N y ha empezado a hacer lo mismo (fase inicial) con la futura generación de procesadores de la compañía: Raptor Lake. Por otro lado, el soporte de Adaptive Sync/VRR ha llegado a los drivers de OpenGL y Vulkan, lo que obviamente apunta sobre todo a una futura ejecución de videojuegos a través de una gráfica dedicada.

RADV no ha incluido en esta ocasión muchas novedades de impacto, cosa normal si tenemos en cuenta que este driver de Vulkan está bastante maduro como mínimo para la ejecución de videojuegos, incluso títulos triple AAA compilados para Windows, así que nos limitaremos a mencionar el soporte para el estándar de compresión de texturas ETC2 emulado y la mejora del soporte para el trazado de rayos, cuyo estado actual no tiene por qué ser óptimo.

Para RadeonSI, el driver de OpenGL para Radeon, ha llegado el soporte de eliminación de sombreados de la Geometría de Próxima Generación (NGG) para las gráficas Navi 1x que han llegado a consumo y el soporte de textura dispersa. Moviéndonos hacia un terreno más abstracto, pero sin salirnos de Radeon, está la mejora del rendimiento de VCE para renderizado de vídeo.

A pesar de que Radeon e Intel siguen caminos separados en Mesa debido a que sus drivers son diferentes, de vez en cuando hay cosas que llegan a los dos fabricantes, como el soporte de sombreadores de malla (mesh shaders) para ANV sobre las gráficas DG2/Alchemist y RADV.

El controversial Wayland también ha recibido algo importante con Mesa 22, más concretamente el soporte de retroalmentación de DMA-BUF en el código de EGL, que debería representar un paso importante en los sistemas con varias gráficas que funcionan bajo una sesión de Wayland. El propósito es obtener más información sobre la GPU empleada por el compositor y para intercambiar búferes de manera más eficiente entre las gráficas primaria y secundaria.

Por lo demás, tenemos el soporte de OpenGL ES 3.1 en el código de D3D12 de Microsoft con las miras puestas en soportar la versión 4 de la API de Khronos Group; el soporte de OpenGL 4.3 para WMware SVGA, si bien aquí se requiere Linux 5.17 o posterior; el soporte de textura dispersa para Zink, el driver que se encarga de renderizar OpenGL sobre Vulkan; el hecho de que el driver de Vulkan V3DV para Raspberry Pi funcione en Android; el soporte básico de Clover OpenCL para Freedreno; además de las típicas correcciones y mejoras del rendimiento.

Mesa 22 puede ser instalado a través de la compilación de su código fuente, una vía que para la mayoría de los mortales no es muy práctica y que conlleva sus riesgos, así que lo recomendable es usar una distribución rolling release y bleeding edge como Arch Linux, Manjaro o Gentoo. Si se tiene un poco de paciencia, debería de llegar a Fedora 35 como una actualización estándar y a Flathub de la misma manera debido a que es empleado como dependencia por aplicaciones como Steam y Minigalaxy, mientras que los usuarios de Ubuntu pueden recurrir a los PPA stable y fresh de Kisak.

Fuente: https://www.muylinux.com/

Crece la cantidad de usuarios en Argentina infectados con malware que roba información

En febrero solamente, más de 3400 usuarios en Argentina se infectaron con malware que roba información y más de 142 mil usuarios a nivel global.

En febrero aumentó la cantidad de víctimas de malware del tipo infostealer que tiene como objetivo robar información del equipo infectado y enviarlo a los cibercriminales. Este tipo de código maliciosos, conocido en inglés como Infostealer malware, suele ser distribuido en mercados clandestinos de la dark web por poco dinero para que otros actores maliciosos lo utilicen en sus campañas. Solo en Argentina se detectaron 3471 nuevos usuarios infectados con este tipo de malware en febrero de 2022, lo que representa un aumento de más de 2.000 usuarios con respecto a enero. En Brasil fueron 13.598 el número de usuarios afectados en febrero, lo que significa 2.560 víctimas más que el mes anterior.

La cifra a nivel global también aumentó, ya que en febrero se registró un aumento de más de 39 mil infecciones en comparación con los más de 104 mil usuarios infectados en enero. Según datos de la telemetría de ESET tan solo para una de las tantas variantes de RedLine en actividad que existe, en lo que va de 2022 se observa un aumento constante en la cantidad de detecciones y el pico máximo se está registrando en marzo.

Lectura relacionada: Más de 1.7 millones de credenciales de acceso a servicios públicos robadas con malware
Los datos fueron publicados por DarkTracer, un servicio de Inteligencia de amenazas que monitorea la actividad de la dark web que compartió la información a través de su cuenta de Twitter. Además, aseguran que más de 12.7 millones de credenciales de usuarios están siendo distribuidas en foros de la dark web.

Son varios los Infostealers en actividad. Entre los más populares está RedLine Stealer y Raccon Stealer, pero existen otros, como Vidar, Taurus o AZORult, por nombrar algunos más. En el caso de RedLine, según revelaron algunas fuentes en 2021, este malware en particular ha sido la principal fuente de credenciales robadas en los mercados clandestinos.

Como suele distribuirse este tipo de malware
La forma de distribución de estos códigos maliciosos es muy amplia. El año pasado este malware en particular ha estado siendo distribuido en campañas a través YouTube. Los cibercriminales colocaban enlaces maliciosos en la descripción de videos sobre cracks de software, cheats para videojuegos o criptomonedas, entre otras temáticas. Hace unos días investigadores detectaron una nueva campaña dirigida a gamers que distribuía RedLine a través de videos de YouTube relacionados al juego Valorant. Los actores de amenazas promovían un cheat para el juego a través de un enlace en la descripción que conducía a la descarga del infostealer.

Otra forma de distribuir este tipo de malware han sido los cracks de software. Este año se detectó una campaña distribuyendo RedLine que se hacía pasar por un falso instalador de Windows 11. Los cibercriminales crearon un sitio de apariencia similar al sitio oficial de Microsoft para engañar a los usuarios y que descarguen el falso instaldor. Algo similar reveló un usuario en Reddit que hizo una búsqueda en Google para descargar el editor de código Sublime Text y llegó a un sitio falso que alojaba Redline.

Además del robo de cookies, datos de tarjetas de crédito y otro tipo de información, este malware suele recolectar credenciales, ya sea de cuentas como de servicios, por ejemplo, VPN.

Investigadores revelaron hace algunos meses un caso de un usuario que trabajaba de manera remota y que fue infectado con RedLine. El malware robó las credenciales almacenadas en el gestor de contraseñas de un navegador basado en Chromium, lo que le permitió obtener las credenciales de la VPN que utilizaba para conectarse a la red de la compañía, lo que permitió que actores maliciosos comprometieran la red interna de la compañía unos meses después utilizando las credenciales de la VPN robadas.


Como recomendación final para los usuarios, activar siempre que sea posible la autenticación en dos pasos. De esta manera el atacante no podrá acceder a nuestras cuentas con la contraseña y el usuario, ya que necesitará también verificar su identidad con un código único que está en poder del usuario

Por último, recordar también utilizar contraseñas seguras, de ser posible frases como contraseña, utilizar un administrador de contraseñas confiable que permita crear y almacenar de manera ordenada contraseñas únicas para cada cuenta o servicio y de esta manera evitar la tentación de reutilizar las mismas credenciales o leves variaciones para acceder a otras cuentas.

Fuente: https://www.welivesecurity.com/

El código de Linux necesita modernizarse y Linus Torvalds está listo para hacerlo

Pero no pienses lo que no es: Linux, el núcleo, está escrito en el lenguaje de programación C… y así va a continuar. Al menos, en el corto y medio plazo. Sin embargo, la versión de C en al que está escrito Linux es antigua y tiene ‘sus cosas’. Cosas que Linus Torvalds tiene la intención de resolver con una actualización.

Según lo cuentan en ZDNet, el código del kernel Linux está escrito en C89, conocido también como ANSI C o ANSI X3.159-1989, el estándar de una época que ha quedado muy atrás en el tiempo. Tanto, que la mera actualización puede ayudar a no toparse con problemas cuya solución está disponible desde hace bastante tiempo también.

No es que C89 ya no «funcione» o no esté soportado: C es todo un estándar de la programación y su compatibilidad, incluso para el código que lleva escrito décadas, está garantizada a través de su propio compilador y en el caso de Linux, a través de GCC (GNU Compiler Collection), con el que se introdujeron diversos cambios con respecto al C corriente.

No obstante, mantenerse en una versión tan antigua de C tiene sus contraindicaciones, como ha descubierto el mismo Torvalds a raíz de la propuesta de un parche de seguridad que resolvía un problema, pero revelaba otro, derivado del uso no de C89, sino de C99, la versión estándar de C lanzada en 1999, también soportada en el kernel.

Sin entrar en pormenores técnicos que lo cierto es que se nos escapan, digamos que la solución del padre de la criatura ha sido la obvia: actualizar el código C de Linux a C11, la versión estándar lanzada en 2011 y que corrige situaciones como la que ha hecho reaccionar a Torvalds (en el anterior enlace está la conversación con todos los detalles, pro si a alguien le interesa).

Así las cosas, los principales mantenedores de Linux tienen trabajo por delante, ya que el cambio de versión es factible y la compatibilidad hacia detrás está asegurada, pero también «podría revelar cualquier cantidad de sorpresas en lugares oscuros del kernel», apunta uno de ellos ante la iniciativa de Torvalds de moverlo de cara al lanzamiento de Linux 5.18… si se puede.

Desde luego, es mucho menos trabajo del que sería portar todo el código de Linux a Rust, una propuesta que avanza por su cuenta, pero que no se prevé que pase mañana o que lo haga como parece, reemplazando la totalidad del código del kernel… y es que C no se va a ningún sitio.

Fuente: https://www.muylinux.com/

¿Cuál sería la finalidad de la ‘protestware’ para sabotear el código abierto?

Las nuevas preocupaciones sobre la cadena de suministro de software surgieron en la comunidad de código abierto cuando una popular biblioteca de Javascript comenzó a eliminar todos los archivos en los sistemas de Bielorrusia y Rusia como protesta por la guerra en Ucrania

Node-ipc, una biblioteca npm que es una dependencia del extremadamente popular marco Javascript frontend Vue.js, se actualizó la semana pasada para incluir código malicioso que sobrescribía archivos en sistemas con direcciones IP bielorrusas o rusas. El mantenedor de Node-ipc, RIAEvangelist, pronto revirtió el código para simplemente dejar caer un archivo titulado «CON AMOR-DE-AMERICA.txt» que contenía un mensaje que pedía paz.

«Este comportamiento está más que jodido. Claro, la guerra es mala, pero eso no justifica este comportamiento (por ejemplo, eliminar todos los archivos para los usuarios de Rusia/Bielorrusia y crear un archivo extraño en la carpeta del escritorio). F** k tú, vete al infierno. Acabas de arruinar con éxito la comunidad de código abierto. ¿Estás feliz ahora @RIAEvangelist ? «, Escribió un comentarista en Nopde-ipc Github.RIAEvangelist negó que haya una carga útil destructiva; sin embargo, la carga útil fue bien documentada por la comunidad de Github y Snyk .

Cuando RIAEvangelist actualizó Node-ipc, también actualizó los números de versión, lo que provocó la actualización automática del código para muchos usuarios intermedios.“Obviamente querían enviar un mensaje en un momento en el que estamos teniendo muchas crisis en todo el mundo, hay un dolor comprensible. Puedo entender eso. También me gustaría decir que esta no es la mejor manera de hacerlo. «, dijo Liran Tal, director de defensa de desarrolladores en Snyk, a SC Media.

Tal escribió la publicación del blog de Snyk, que incluye en términos inequívocos su postura sobre la guerra: «Snyk apoya a Ucrania». El problema, dijo, es que el software destructivo, incluso «protestware», un término acuñado por algunos para Node-ipc, corre el riesgo de dañar los sistemas colaterales y la comunidad de código abierto en general.»El radio de explosión aquí fue grande», dijo.

Muchos desarrolladores ven el software de código abierto como un monolito, una sola comunidad en lugar de un grupo de proyectos individuales. Incluso entre los proyectos populares, estos pueden abarcar toda la gama de grandes organizaciones con juntas directivas y muchos contribuyentes, como dijo XKCD , «un proyecto que alguna persona al azar en Nebraska ha estado manteniendo desde 2003 sin agradecer».

Node-ipc es la segunda instancia importante de un proyecto de código abierto mantenido por un solo individuo que fue saboteado como una forma de activismo el año pasado, luego de un largo período sin activismo alguno. Colors.js y Faker.js, ambos mantenidos por la misma persona, agregaron un bucle infinito al código en enero para protestar contra las grandes empresas que usan software de código abierto sin contribuciones financieras. En ese caso, sin embargo, la protesta estaba ligada al medio: era una protesta de código para los codificadores, en lugar de un tercero.

La lección puede ser incluir proyectos dirigidos por individuos, o proyectos con dependencias de proyectos dirigidos por individuos, como su propio riesgo en un modelo de amenaza.»Tienes que confiar en las personas de las que obtienes los componentes. Y creo que la moraleja de la historia vuelve a la higiene. Cuando eliges qué proyectos usar, debes elegir los de lugares que son respaldado por fundaciones», dijo Brian Fox, director de tecnología de la empresa de cadena de suministro de software Sonatype.

Una organización como Apache, donde una decisión tan radical como agregar un código malicioso requeriría una votación, sería menos probable que hiciera tal movimiento, dijo Fox.

Pero el punto, dijo, no debería ser que el activismo por sí solo sea el problema. En cambio, todo esto juega con un problema mayor, que las empresas siguen sin estar preparadas para los riesgos de la cadena de suministro de software, incluso después de un año mostrando cuántas formas diferentes entran. a SC Media eran para versiones peligrosamente desactualizadas del popular paquete Java.»Si no podemos manejar Log4j después de tres meses, ¿cómo podemos manejar algo que sucedió anoche?», dijo.

Lo merezca o no, el daño causado a la credibilidad del código abierto probablemente no se limitará a proyectos mantenidos por individuos individuales. (Los teléfonos celulares de los proveedores comerciales «probablemente se están volviendo locos ahora», dijo Adam Meyers, vicepresidente senior de inteligencia de Crowdstrike, ya que las empresas buscan una alternativa administrada de manera más profesional).

Para el código abierto en general, «no ha sido un buen aspecto», dijo, incluso cuando la mayoría de las personas en la comunidad de código abierto lo ven como «tremendamente irresponsable».»No había discreción sobre qué tipo de usuarios había en Rusia o Bielorrusia», dijo. «Podría haber sido, ya sabes, infraestructura crítica, cuidados críticos. Extremadamente mal juicio».

Fuente: https://www.somoslibres.org/

Arch Linux celebra su vigésimo aniversario convertida en una de las distribuciones más populares

Arch Linux está de enhorabuena, ya que este mes se celebra el vigésimo aniversario del primer lanzamiento de una de las distribuciones más populares, reconocidas y prestigiosas, hasta el punto de consolidarse, posiblemente, como el sistema operativo para usuarios avanzados más popular del mundo (con permiso de otras opciones como Gentoo y Void, por citar dos ejemplos).

Profundizando en los detalles (y en el pasado), el 11 de marzo de 2002 fue publicado Arch Linux 0.1. En aquel lanzamiento se avisó que el instalador disponible no era muy allá, aunque también se invitó a los usuarios a superar el “desafío planteado”. Para la versión 0.2 estaba planeada la documentación de Arch Build System (ABS) y poner a disposición un método de actualización tipo CVS para que la gente pudiese crear sus propios paquetes, el área contrib para paquetes de terceros, la finalización de Pacman 1.2, la adición de un instalador “bastante interactivo” y la adición de más documentación.

Pocos años después Arch Linux se había convertido en una de las distribuciones más populares. Por aquel entonces contaba con un instalador semigráfico, empleada sysvinit como init y era uno de los mayores exponentes de la filosofía KISS (Keep It Simple, Stupid) en el mundo de Linux. Aquellas características estaban acompañadas de un gestor de paquetes Pacman que ya mostraba maneras, un AUR que a día de hoy sigue siendo un complemento valioso para muchos y una documentación de bastante calidad (sobre todo en su versión en inglés).

Durante el transcurso de estos 20 años hemos visto cómo el instalador semigráfico fue sustituido por la consola pura y dura y Pacstrap, la transición de sysvinit a systemd, el regreso de un instalador más amigable y opcional con ArchInstall y cómo el proyecto ha tenido tres líderes distintos: Judd Vinet, Aaron Griffin y Levente Polyák, siendo el último quien actualmente ostenta el cargo.

Además de ser una distribución orientada a aquellos que disfrutan con la línea de comandos, Arch Linux se ha erigido como uno de los reyes del software vanilla, por lo que es una buena elección si se quiere disfrutar del software en un estado al menos cercano a como lo ha dejado el desarrollador original.

La documentación es otro de los aspectos más destacados del proyecto gracias a su elevada calidad. Esto, unido al hecho de que systemd ha sido el eje para consolidar cierta estandarización en Linux, ha abierto la puerta a que no solo sirva como referencia para los usuarios de Arch Linux, sino que también es capaz de aportar soluciones para una gran cantidad de distribuciones, incluidas aquellas que no son derivadas.

Las virtudes de Arch no acaban aquí, ya que Pacman es uno de los mejores gestores de paquetes para Linux y la distribución se ha ido consolidando como una potente base tecnológica de que la derivan distribuciones o sistemas como Manjaro, EndeavourOS y el reciente SteamOS 3. Su naturaleza rolling release y bleeding edge lo han convertido uno de los mejores sistemas para jugar desde Linux, cosa que queda reflejada en la encuesta de Steam.

Encuesta de Steam de febrero de 2022 mostrando las distribuciones Linux más usadas por los usuarios de la plataforma.

En resumidas cuentas, desde MuyLinux solo podemos darle la enhorabuena a Arch Linux, un proyecto, una distribución y un sistema operativo que ha logrado su posición por méritos propios y teniendo claro qué quiere ofrecer a su público objetivo, que obviamente no es el usuario común que suele usar un escritorio precocinado. Y pese al sambenito de “sistema para usuarios avanzados” que arrastra, la realidad es que usarlo no es tan difícil si se tiene claro cómo funcionan Pacman, systemd y algunas de las partes o componentes más importantes.

Fuente: https://www.muylinux.com/

Inteligencia de código abierto : deja rastros digitales en la guerra de Ucrania

Desde hace meses, una comunidad grande y muy activa de sabuesos digitales ha estado siguiendo de cerca la escalada de la crisis en Ucrania. Estas personas han estado utilizando inteligencia de fuente abierta para investigar y documentar la preparación y ahora la ejecución de la guerra elegida por Vladimir Putin

Pero, ¿qué es exactamente la inteligencia de código abierto? ¿Y cómo está ayudando a los esfuerzos para comprender lo que está sucediendo sobre el terreno en Ucrania?

En términos generales, la inteligencia de código abierto describe el conocimiento o la percepción que surge de la recopilación, el seguimiento y el análisis enfocados de la información de acceso público, ahora en su mayoría en línea, utilizando métodos y herramientas especializados.

A primera vista, la inteligencia de fuente abierta parece ser una contradicción en los términos. La inteligencia generalmente se asocia con secretos y espías, no con los conocimientos de los investigadores en línea, muchos de ellos aficionados, que comparten sus hallazgos con cualquier persona interesada.

La inteligencia de código abierto tiene raíces en el contexto de la inteligencia; de hecho, en estos días tiene más valor que nunca para los esfuerzos de inteligencia nacional, pero ya no está ligada exclusivamente a la comunidad de inteligencia.

En las últimas dos décadas, el término se ha convertido en un lenguaje común en dominios como la academia, el periodismo y los negocios. En una variedad de sectores, las organizaciones impulsadas por la información se han dado cuenta de que gran parte de la información analítica que necesitan se puede extraer de fuentes abiertas que, en su mayor parte, son fácilmente accesibles en línea.El mejor ejemplo es probablemente Bellingcat , el colectivo de investigadores y periodistas que han aparecido en los titulares con una serie de investigaciones de código abierto de alto perfil.

Los medios de comunicación más tradicionales también han tenido éxito en la integración de técnicas de inteligencia de código abierto como la geolocalización (combinando varias fuentes de información para identificar una ubicación geográfica precisa) en su periodismo de investigación. Los ejemplos incluyen los observadores de France 24 y el equipo de investigaciones visuales del New York Times .

¿Qué implica la inteligencia de código abierto?


La práctica se ve mejor como un espectro de actividades. En un extremo del espectro se encuentra lo que denomino el «enfoque prospector». Aquí, el analista o investigador es como un buscador de oro, examinando cuidadosamente el fango informativo de Internet en busca de pepitas de oro, esos fragmentos de información que mejorarán su comprensión de un problema o rompecabezas en particular. Así abordan su trabajo muchos de los que investigan aspectos de la guerra en Ucrania.

Para tener éxito, un aspirante a analista de código abierto debe tener una mentalidad inquisitiva y una buena atención a los detalles. Necesitan dominar las diversas herramientas y técnicas que pueden ayudar a refinar las búsquedas y eliminar información irrelevante (el sitio web de Bellingcat tiene algunos recursos útiles ). Las habilidades lingüísticas son una ventaja, pero se puede hacer mucho con las herramientas de traducción disponibles gratuitamente .

Si carecen de experiencia en la materia, los investigadores deben poder ubicarse en el contexto informativo de la investigación, identificando rápidamente fuentes principales y confiables de información relevante, y estar dispuestos a buscar respuestas de otros.Finalmente, deben prestar la debida atención a su huella digital y considerar los rastros que dejan en su búsqueda de respuestas.

Estos son los básicos y cualquiera puede recogerlos. No hay ningún requisito de formación previa o calificaciones. El fundador de Bellingcat, Eliot Higgins , es un buen ejemplo de esto. Cuando comenzó su trabajo de código abierto, Higgins no tenía experiencia como investigador ni experiencia en asuntos relacionados con conflictos. Ahora es considerado uno de los principales investigadores de código abierto del mundo.

En el otro extremo del espectro, el enfoque es mucho más técnico y se basa en algoritmos sofisticados y aprendizaje automático para recopilar, filtrar, conectar y manipular datos. Este enfoque de la inteligencia de código abierto es menos accesible, ya que requiere las habilidades de informáticos, estadísticos e ingenieros, así como de analistas y expertos en la materia. Pero ofrece un medio para recopilar e interrogar grandes cantidades de datos a la velocidad de la luz, una propuesta valiosa dada la velocidad vertiginosa a la que se expande el entorno de la información en línea.

La inteligencia de código abierto y la guerra


Hay muchas formas en que la inteligencia de código abierto puede ayudarnos a comprender cómo se está desarrollando el conflicto en Ucrania. Una es su contribución a la conciencia situacional. En el período previo a la invasión, por ejemplo, los videos publicados en TikTok dieron una idea de los movimientos de tropas y la acumulación en las fronteras de Ucrania.

Desde la invasión, los videos subidos a Telegram, combinados con imágenes satelitales de acceso público , han arrojado luz sobre ataques particulares y el progreso de las fuerzas rusas. El seguimiento de las matrículas de los vehículos obtenidas de las redes sociales proporciona información sobre los tipos de vehículos militares desplegados por los rusos y sus movimientos. Los investigadores incluso lograron interceptar y publicar transmisiones de radio sin cifrar entre las fuerzas rusas.

La inteligencia de código abierto también se puede utilizar para respaldar los enjuiciamientos de violaciones de derechos humanos y crímenes de guerra. Por ejemplo, Bellingcat ha estado tratando de rastrear el uso de municiones de racimo en el conflicto. Estas armas, prohibidas por muchos estados, se destacan por el dolor y el sufrimiento que causan. El equipo de Bellingcat ha estado reuniendo, verificando y geolocalizando videos filmados en Ucrania y subidos a las redes sociales.

Otra área de la actividad de inteligencia de fuente abierta consiste en contrarrestar la desinformación. Las redes sociales se han inundado con información falsa: afirmaciones de engaños, el uso de actores de crisis y una narrativa más amplia de provocaciones ucranianas son parte de los esfuerzos para sembrar confusión y distorsionar la percepción pública del conflicto. Los investigadores de inteligencia de código abierto han jugado un papel importante en desacreditar afirmaciones falsas y exponer la desinformación .


Por supuesto, hay muchos desafíos para navegar. Toda la información debe ser cuidadosamente evaluada y verificada. ¿Cuál es la fuente? ¿Es precisa la información? ¿Hay algún riesgo potencial de usar los datos? Por ejemplo, ¿el uso de fotos publicadas en la cuenta de redes sociales de una persona en un análisis publicado podría representar un riesgo para esa persona si se la identifica como la fuente de las fotos?

En un nivel más amplio, es importante recordar que todas las partes de cualquier conflicto pueden acceder a la información de fuente abierta. El deseo de proteger a los ciudadanos en este contexto explica por qué Google deshabilitó las funciones de Maps en Ucrania que muestran datos de tráfico en vivo y cuán ocupados están lugares como tiendas y restaurantes.

Estos son solo algunos de los desafíos y no deben descartarse a la ligera. En general, sin embargo, el valor de la inteligencia de código abierto supera con creces cualquier inconveniente. Esto se ha demostrado claramente durante la guerra en Ucrania hasta ahora.

Fuente: https://www.somoslibres.org/

LibreOffice 7.3 mejora la interoperabilidad con los documentos de Microsoft Office

The Document Foundation ha anunciado el lanzamiento como estable de LibreOffice 7.3, la última versión de la archiconocida suite ofimática publicada como software libre y la principal rival de Microsoft Office dentro del segmento. En esta ocasión, entre otras cosas, destaca la mejora de la interoperabilidad con los formatos procedentes del gigante de Redmond, una prioridad que viene forzada por la situación del mercado.

Ya que hemos dicho interoperabilidad, vamos a mencionar los aspectos concretos de ese frente que han sido mejorados en LibreOffice 7.3. Aquí sobresalen las mejoras a nivel rendimiento a la hora de abrir documentos DOCX, XLSX y XLSM, un proceso de renderización más rápido de los documentos complejos en esos formatos y un mejor desempeño del backend de Skia, que fue introducido en la versión 7.1 de la suite.

También hay nuevas características como un nuevo manejo del seguimiento de los cambios en las tablas y cuando se mueve el texto, las cuales también impactan positivamente en la interoperabilidad con Microsoft Office. Para el viejo formato DOC (Word) se ha mejorado la importación de numeración y viñeta, mientras que para DOCX (Word) ha sido mejorada la importación de numeración y viñeta y de hipervínculos, además de corregirse los permisos para editar.

Para XLSX (Excel) se ha ajustado la altura de las filas, la sangría de la celda no aumenta cada vez que se guarda y también se han arreglado los permisos al editar. Por su parte, el soporte de PPTX (PowerPoint) ha recibido correcciones que abarcan enlaces, imágenes, transparencias, importación y exportación.

Las bibliotecas de ScriptForge, que facilitan el desarrollo de macros, han sido extendidas con algunas características nuevas que abarcan la definición de gráficos en Calc (hojas de cálculo), el nuevo servicio de PopupMenu, una amplia gama de opciones para la gestión de impresoras y “una función para exportar documentos a PDF con una gestión completa de las opciones de PDF”.

LibreOffice 7.3 Community

Desde la fundación denuncian que los documentos generados con Microsoft Office todavía se basan en el estándar obsoleto de 2008 y no en aprobado por la ISO. Como consecuencia, según The Document Foundation, hay una gran complejidad oculta que termina provocando problemas en LibreOffice. Que al gigante originario de Redmond no le interese cumplir con su propio estándar es algo lógico, más viendo que eso abriría más la puerta a la competencia.

LibreOffice 7.3 ha sido posible gracias al trabajo de 147 contribuidores. El 69% de los commits de código han procedido principalmente de 49 desarrolladores empleados por tres empresas pertenecientes al Consejo Asesor de The Document Foundation: Collabora, Red Hat y allotropia. El 31% restante procede de 98 contribuidores individuales.

Todos los detalles de LibreOffice 7.3, más concretamente de la edición Community, que es la que nos ocupa, están disponibles en el anuncio oficial y las notas de lanzamiento. La suite ofimática puede obtenerse desde la sección de descargas de la web oficial del proyecto para Linux, Windows y macOS, sin embargo, los paquetes para Linux disponibles ahí tienen que ser actualizados manualmente, así que como alternativa se puede recurrir al PPA Fesh para Ubuntu, a Flatpak, Snap o a alguna distribución rolling release y bleeding edge como Arch Linux, a la que debería de llegar mediante actualización estándar. Os dejamos con un vídeo donde se exponen las principales características nuevas de este lanzamiento.

LulzSecPeru: cómo dos adolescentes tuvieron en vilo a varios gobiernos latinoamericanos con sus revelaciones

Probablemente conoces a Anonymous, ese grupo que en 2003 advirtió: «Somos una legión, no perdonamos, no olvidamos, espéranos». Tal vez también sepas de LulzSec. Pero quizás ni siquiera has oído hablar de un grupo ciberactivista tremendamente impactante: LulzSecPeru.

«Fueron los únicos hackers efectivos -de hecho fueron increíblemente efectivos- que pude encontrar en Latinoamérica», le cuenta a la BBC Frank Jack, un periodista de la agencia The Associated Press especializado en ciberseguridad.

También es el único reportero que se comunicó directamente con los chicos que conformaron LulzSecPeru, en 2014.

«Cuando les pregunté por qué asediaron al Ministerio de Defensa argentino, a los militares colombianos, a todas esas redes en las que tal vez no tenían intereses políticos, respondieron: Lo hicimos por el Lulz«.

Tres años antes, la revista Wired había dado una explicación sobre lo que significaba esa palabra en ese contexto

«El lulz (una deformación de LOL, abreviatura que se usa online para referirse al laugh out loud o reír a carcajadas) es lo más importante y abstracto que hay que entender sobre Anonymous, y quizás sobre internet.

«El lulz se ríe en lugar de gritar. Es una risa de vergüenza y separación. Es schadenfreudeNo es el humor anestésico que facilita el paso de los días, es el humor el que realza las contradicciones. El lulz es una risa con dolor. Te obliga a considerar la injusticia y la hipocresía, desde cualquier lado en el que te encuentres en ese momento».

Rat y Desh

Imagen hecha con 0 y 1 mostrando un hacker

«Cuando entreviste a estos chicos, LulzSecPeru era diferente de los principales grupos hacktivistas como Anonymous o incluso el LulzSec original».

Aunque integraban una versión local del colectivo de intrusos cibernéticos LulzSec, que agrupaba a los llamados «piratas de sombrero negro», con sede en Estados Unidos y Reino Unido, Jack aclara que «no tenían afiliación» con ellos.

«Esos grupos originales tenían miles de miembros activos en todo el mundo, trabajando en diferentes proyectos: protestas contra la Iglesia de la Cienciología, apoyo a la Primavera Árabe y ataques de denegación de servicios —también llamados DoS (por sus siglas en inglés, Denial of Service), consisten en ataques a un sistema de computadoras o red que causa que un servicio o recurso sea inaccesible a los usuarios legítimos— contra varios objetivos.

«Sus enormes cifras significaban que tenían muchas personas experimentadas a su disposición. LulzSecPeru estaba conformado por sólo dos adolescentes«.

Se identificaban como @Cyber-Rat, que tenía 17 años en ese momento, y @Desh501, quien decía tener entre 19 y 23 años y ser estudiante universitario. Eran programadores autodidactas que comenzaron a la edad de 8 y 6 años, respectivamente.

"LulzSecPeru aportando su grano de arena a Anonymous Colombia"

Según Rat, sus padres no tenían ni idea de lo que estaba haciendo.

Dash, por su lado, dijo que sus padres sabían que estaba involucrado en la seguridad de la información y sospechaban que podría ser un hacker, y creía que tarde o temprano probablemente se enterarían.

«Rat era más vanidoso y se encargaba de la labor intrusiva en las redes sociales, de cultivar la relación con otros ciberactivistas y de publicitar los logros de LulzSecPeru

«Desh era más serio y discreto, y era el verdadero genio en las cuestiones tecnológicas».

Imagen de presentación de LulzSecPeru en Twitter.
Pie de foto,Imagen de presentación de LulzSecPeru en Twitter.

«En ese momento, e incluso ahora, había una corrupción arraigada en varias naciones sudamericanas: sobornos ende proyectos de construcción y energía, desnatados del tesoro público, y mucha relacionada con el narcotráfico».

El tipo de hackeo que hicieron fue ciberactivismo por excelencia, disruptivo, irreverente y con una pizca de travesura.

«Comenzaron con cientos de desfiguraciones, en las que violaban la seguridad de un sitio web y reemplazan el contenido con el logotipo de LulzSec, esa caricatura de un tipo con un bigote tipo Dalí y un sombrero de copa, con una copa de vino en la mano.

«Eso fue solo una especie de carta de presentación, pero lo que más llamó la atención fue cuando se tomaron las cuentas de Twitter del presidente venezolano Nicolás Maduro en 2013«.

«Así fue como se lanzaron a escena«.

Fotos del perfil de las cuentas twitter cuando fueron tomadas

Ética pelética peluda

Si bien muchas de sus actividades eran solo para el lulz, había un lado serio, la ética ciberactivista, nacida de un credo compartido por muchos hackers.

Su filosofía era que cualquiera que intentara sofocar la libertad de expresión era el enemigo y, por lo tanto, su objetivo como hackers era exponer los abusos de poder y fomentar la transparencia por parte de los gobiernos.

Sin embargo, seamos claros, estos eran dos adolescentes, no unas blancas palomas.

En los primeros días, antes de afinar su ideología política, se involucraron en actividades poco éticas.

Mano, teclas y código binario en primer plano

En 2012 irrumpieron en la red de la compañía que maneja el principal dominio de Perú y obtuvieron una base de datos de 114.000 entradas, con nombres, números de teléfono, correos electrónicos y contraseñas de sitios afectados, incluidos bancos, compañías de seguridad, el buscador Google… todos los dominios que concluían con «.pe».

Era el tipo de material que los criminales sueñan con tener.

Y lo volcaron en línea.

«Desh me contó que Rat fue quien lo hizo sin consultarlo y me dijo: Casi lo mato ese día«.

Corrupción que corroe

Su hackeo más exitoso se produjo en 2014, cuando fijaron su atención en el gobierno peruano.

René Cornejo

«La seguridad de la red del gobierno peruano era mala. Su primer gran hackeo había sido el Ministerio del Interior de Perú en 2011 y al año siguiente hackearon a la policía cibernética de Perú, así que estaban seguros de que la policía cibernética sabía menos sobre ellos que lo que ellos sabían de la policía cibernética.

«Esta vez pusieron sus ojos en la red del Consejo de Ministros.

«Tardaron un mes en entrar, y el resultado fue la publicación de aproximadamente 3.500 correos electrónicos del gobierno que databan de febrero a julio de 2014.

Aunque no salieron a la luz grandes casos de corrupción -«los políticos no eran tan tontos», dice Jack-, quedó expuesta mucha corrupción cotidiana, de bajo nivel… aquella que corroe.

«Fueron condenatorios».

Ballena en aguas peruanas
Pie de foto,Las ballenas fueron una de las preocupaciones.

El público halló evidencia de la influencia de cabilderos, lo que generó una enorme presión sobre algunos ministros.

El ministro de Energía, en un irritado intercambio de correos, rechazaba impacientemente las objeciones del ministro del Medio Ambiente en torno a sus cálidas relaciones con una petrolera australiana, que insistía en que sus técnicos, no los reguladores ambientales peruanos, supervisaran las pruebas sísmicas submarinas.

«Fue un caso particularmente explosivo pues esas pruebas se utilizan para detectar depósitos de petróleo, pero pueden lastimar a las ballenas y otras criaturas marinas«.

En otra de las misivas, una ejecutiva del lobby de la industria pesquera le pedía al ministro de Finanzas que extendiera la temporada de extracción de la anchoveta, que «es la industria pesquera más valiosa de Perú, pero también una que está en peligro por la sobrepesca«, subraya Jack. Poco después, se le concedió su deseo.

Las filtraciones contribuyeron a precipitar una moción de censura, a la que el gobierno sobrevivió gracias a un solo voto.

Mano digital
Pie de foto,El ciberactivismo tiende a ser cosa de jóvenes.

«El escándalo que estos hackers dispararon no derribó al gobierno, pero ciertamente lo avergonzó«.

A pesar de la humillación y algunas mejoras, por más que lo intentó, la policía cibernética peruana nunca logró rastrear a los chicos del sombrero de copa.

¿Qué fue de ellos?

Desde sus conversaciones en línea de hace 8 años, Jack dice que sólo oyó de uno de ellos una vez más. «Fue un contacto fugaz».

Él nunca tuvo forma de contactarlos, eran ellos los que se comunicaban con él, y en 2014 ambos dijeron que iban a empezar a retraerse.

«Rat dijo que estaba a punto de cumplir 18 años, y que cuando se convirtiera en adulto, no quería arriesgarse a ser procesado, así que se iba a retirar.

«Desh tenía aspiraciones de abrir un portal como WikiLeaks para América Latina, pero no hay evidencia de que eso sucediera. Realmente quería trabajar como investigador de seguridad, y tal vez eso está haciendo, pero no sé».

El ciberactivismo es una actividad a menudo de jóvenes, en parte porque no enfrentan tanto riesgo como los adultos, pero también porque tienen el tiempo y el ímpetu para hacer algo con las herramientas que manejan.

Además, pueden desvanecerse cuando llega el momento y volver a su otra vida.

«Creo que LulzSecPeru tuvo su impacto y para ellos eso fue suficiente. Pero no me sorprendería que otros como ellos surgieran en un momento de tensión política», concluye Jack.

Para 2015, los grupos ciberactivistas eran una sombra de lo que habían sido, pero como prototipos —con sus tácticas, como el hackeo y la filtración para que otros aprovecharan la información— pervivieron.

En 2020 y 2021 en todo el mundo, el ciberactivismo resucitó, con filtraciones contra la policía, derribos de sitios web de extrema derecha, hackeos que socavaban constantemente el estado de vigilancia de Lukashenko en Bielorrusia, entre otros.

Así es el ciberactivismo: intenso e intermitente.

No sabemos dónde ni cuándo surgirá, pero lo que llama la atención es cómo unos pocos hackers pueden sacudir a aquellos en posiciones de poder que se creen irreprochables.

Fuente: https://www.bbc.com/

Microsoft agrega una marca de agua si tu hardware no es compatible con Windows 11

Vuelve un clásico. Esa marca de agua en el escritorio que evidenciaba tu espíritu bucanero por usar una copia pirata regresa a Windows 11 y ahora te dice si tu hardware no es compatible.

Windows 11 tuvo un despegue turbulento y un poco accidentado este 2021, pero la promesa es que para este nuevo año todo irá más fluido y estable.

Se arrancó de hecho con una actualización importante que igual desconfiguró equipos a la par que nos acercó a todos un poco más a esta nueva era de integración entre ese sistema operativo de escritorio y Android.

Poco a poco se ve un mejor porvenir para la comunidad que utiliza Windows 11. Pero al mismo tiempo también se vislumbra la posibilidad de que regresen algunos elementos “clásicos” que acompañaron a esta plataforma durante años.

En el ejemplo más reciente de esta tendencia tenemos este nuevo reporte, en donde descubrimos que Microsoft hará más fácil saber si nuestro equipo soporta o no el sistema operativo que corre.

Vuelve la marca de agua en el escritorio para copias piratas en Windows 11 pero ahora es distinta

Desde Twitter el usuario @thebookisclosed tiene semanas revelando cada hallazgo interesante que encuentra en la plataforma con cada build liberada para Windows Insiders.

Gracias a él y a otros entusiastas que siguen sus pasos hemos descubierto que actualmente, Microsoft está experimentando con dos nuevos métodos para advertir a los usuarios de Windows 11 si han instalado ese sistema operativo en un hardware no compatible

Esta notificación, tal como podemos observar en las últimas versiones de prueba de Windows 11 se posiciona mediante una marca de agua en la esquina inferior derecha del escritorio.

Si esa ubicación les resulta familiar es porque se trata exactamente del mismo método y ubicación que utilizaba Microsoft antes para notificar cuando detectaba que la copia de Windows XP, 7 y 8 era pirata.

Pero ahora la finalidad de esta marca de agua es menos agresiva y más benigna. Ya que advierte al instante sobre el hardware no compatible cuando no se cumplen los requisitos del sistema operativo para correr de forma estable.

Dado que se trata de una prueba en una versión no liberada de Windows 11, es difícil decir si esto es algo que Microsoft implementará para todos en el futuro o si se trata de una configuración transitoria.

Para instalar este nuevo software la compañía exige que las computadoras cuenten por lo menos con un procesador Intel Coffee Lake de octava generación o una CPU AMD Zen 2 o superior.

Tal imposición deja fuera a, literalmente, millones de equipos que no cuentan con esa potencia. De modo que no será imposible instalar Windows 11 al parecer, pero tendrán que vivir con un sistema operativo inestable y esa marca de agua permanente en el escritorio.

Fuente:

El dominio de las Big Tech frena la innovación y ralentiza la economía

Hasta las ‘start-ups’ más disruptivas pueden tener problemas para competir con las producciones a gran escala o la apuesta de las grandes empresas por producir su propio software. El crecimiento de las nuevas compañías tecnológicas es mucho menor que hace unos años, y también les cuesta más acceder a capital riesgo.

En 2005, varios años antes de que Siri de Apple y Alexa de Amazon aparecieran en escena, dos start-ups, ScanSoft y Nuance Communications, se fusionaron para buscar su oportunidad en el reconocimiento de voz. La nueva empresa desarrolló un potente software de procesamiento de voz y creció rápidamente durante casi una década, a una media de un 27 % anual en ventas. Pero, de repente, alrededor de 2014, dejó de crecer. Los ingresos en 2019 fueron aproximadamente los mismos que los de 2013. Nuance se encontró con fuertes vientos en contra, ya que las grandes empresas informáticas que antes eran sus socios se convirtieron en sus competidores.

La historia de Nuance no es única. En todas las grandes industrias y campos tecnológicos, las start-ups se enfrentan a obstáculos sin precedentes. Todavía siguen surgiendo nuevas empresas para valorizar las oportunidades innovadoras, y estas empresas pueden aprovechar una extraordinaria avalancha de capital de riesgo. Sin embargo, no todo va bien en la economía de las start-upsLas start-ups innovadoras crecen mucho más lentamente que las empresas del pasado con las que se pueden comparar.

Sorprendentemente, uno de los principales culpables de eso es la tecnología, en concreto la tecnología de información patentada en manos de grandes empresas que dominan sus industrias. Estamos acostumbrados a pensar que la tecnología genera disrupción, en la que las innovaciones introducidas por empresas más pequeñas y nuevas les permiten crecer y, al final, sustituir a las más antiguas y menos productivas. Pero estas tecnologías patentadas actualmente suprimen la renovación industrial, que ha disminuido drásticamente en las últimas dos décadas. Esta pérdida de dinamismo tiene amplias consecuencias negativas para la economía estadounidense. Ha ralentizado el crecimiento de las empresas innovadoras. Los investigadores han relacionado ese crecimiento más lento con un incremento sustancialmente menor de la productividad, que afecta a toda la economía, hasta los ingresos personales.

Nuance comenzó en 1994 como una spin-off del laboratorio del SRI (Stanford Research Institute) de la Universidad de Stanford (EE. UU.), que había desarrollado tecnología de reconocimiento de voz para el Gobierno de EE. UU. ScanSoft era una spin-off de Xerox. Antes de su fusión en 2005, el reconocimiento de voz estaba condicionado por el poder de procesamiento del ordenador. Los sistemas reconocían solo vocabularios limitados, aunque resultaban útiles en algunas aplicaciones comerciales específicas, como para los centros de atención telefónica al cliente y la transcripción de informes médicos.

A finales de la década de 2000, las cosas cambiaron. Mientras los ordenadores se volvían más poderosos, Nuance logró desarrollar una gran innovación: el «reconocimiento de voz continuo de vocabulario extenso». Una persona podía decir cualquier cosa sobre cualquier tema y la tecnología podía transcribirlo con precisión en tiempo real. Nuance usó esta tecnología en la app Dragon Dictation, que Apple introdujo cuando presentó el iPhone 3GS en la Conferencia Mundial de Desarrolladores de 2009. Cuando Apple validó ese producto, Samsung y el resto de fabricantes de teléfonos lo quisieron. Pasó lo mismo con Google, Amazon y Microsoft. Nuance creció rápidamente, tanto con estos importantes clientes como a través de millones de usuarios individuales que compraban la app para iPhone, que en la tienda iTunes se convirtió en la app de productividad comercial número uno. En 2011, Apple presentó Siri, que se basó en la tecnología de Nuance. Los ingresos de Nuance en 2013 crecieron a 1.700 millones de dólares (1.497 millones de euros).

Pero este crecimiento duró poco. Nuance no fue la única empresa en darse cuenta de que la voz estaba a punto de convertirse en el canal principal para la interacción humana con los ordenadores y con los servicios en la nube. El reconocimiento de voz ya no se centraba solo en dictar texto, sino de comprar, buscar información, elegir la música y los vídeos de entretenimiento, controlar los electrodomésticos y mucho más. Era rápido, de manos libres y, en comparación con el teclado y el ratón, era una forma mucho más natural de comunicación para el ser humano.

Las Big Tech empezaron a dedicar mucho dinero y talento a esta oportunidad. Apple invirtió en el desarrollo de sus propios sistemas, Amazon creó su asistente de voz Alexa y Google lo siguió rápidamente con su Home Assistant. Y esas empresas asaltaron con éxito el banco de talentos de Nuance para atraer a los mejores profesionales a sus filas. Amazon tiene actualmente más de 10.000 ingenieros trabajando en los productos de Alexa, más de 10 veces la cantidad de empleados de investigación y desarrollo que tenía Nuance en su apogeo.

Además de sus recursos económicos, las grandes empresas también tenían la ventaja de contar con enormes bases de clientes, productos complementarios e inmensas cantidades de datos a su disposición, lo que les permitía ir mejorando continuamente sus sistemas de reconocimiento de voz. Actualmente, hay instalados 300 millones de dispositivos Alexa; Google maneja de media 5.600 millones de búsquedas cada día y la mitad de sus usuarios informan que utilizan la voz para realizar esas búsquedas. Amazon tiene un ecosistema próspero donde los desarrolladores externos agregan nuevas «habilidades» a Alexa, más de 100.000 van desde poner cadenas de radio específicas hasta contar chistes. Además, Amazon ha otorgado la licencia de la tecnología de Alexa a distancia a los fabricantes de electrodomésticos, que la utilizan para controlar sus lavavajillas, lavadoras y secadoras de ropa o aspiradoras.

Nuance no pudo competir en este campo de batalla. Decidió centrarse en los nichos de mercado como la atención médica antes de que Microsoft la adquiriera en 2021.

Lo que le sucedió a Nuance no es solo la vieja historia de las grandes empresas que invierten tanto que superan a las start-upsEn una amplia variedad de industrias, las compañías dominantes emplean sistemas de información a gran escala para ganar a sus competidores, incluidas las innovadoras start-ups. Utilizan software propio para gestionar mejor la complejidad y así diferenciarse de las empresas rivales. Esto les ha permitido incrementar su dominio en el mercado y evitar acabar alcanzadas por la competencia.

En el comercio minorista, el software de logística y de gestión de inventario de la cadena Walmart le permite abastecer sus tiendas con una selección mucho mayor de productos a menor coste, adaptar cada tienda a las necesidades locales y responder rápidamente a medida que cambia la demanda y surgen productos de moda. Usando grandes sistemas de datos, las principales empresas financieras ofrecen sus tarjetas de crédito y los préstamos con garantía hipotecaria a los clientes individuales de forma masiva y luego se centran en la comercialización de estos productos. Incluso las principales empresas de gestión de residuos y las aseguradoras de salud realizan grandes inversiones en su propio software para vencer a la competencia. En total, las empresas (excluyendo aquellas cuyo producto es software) actualmente invierten cada año más de 240.000 millones de dólares (211.968 millones de euros) en su software interno, frente a los 19.000 millones de dólares (16.780 millones de euros) en 1985. Las grandes corporaciones representan la mayor parte de ese cambio. Las cuatro principales compañías de cada industria, clasificadas por sus ventas, han multiplicado por ocho su inversión en su propio software desde 2000, mucho más que las empresas de segundo nivel.

Estas inversiones han valido la pena. Desde la década de 1980, las cuatro mejores empresas de cada industria han aumentado su cuota de mercado entre un 4 % y un 5 % en la mayoría de los sectores. Mi investigación muestra que las inversiones en software propio causaron la mayor parte de este incremento.

Este mayor dominio de la industria por parte de las principales empresas va acompañado de una disminución correspondiente del riesgo de disrupción, una perspectiva que ha obsesionado a los directivos corporativos desde que salió en 1997 el libro The Innovator’s Dilemma de Clayton Christensen. En el momento en el que Christensen lo escribió, la disrupción iba en aumento. Pero desde aproximadamente el año 2000, cuando las principales empresas comenzaron su ola de inversiones en sistemas propios, esta tendencia ha disminuido drásticamente. En cualquier industria, la posibilidad de que una empresa de alto nivel (medido por las ventas) abandone uno de los cuatro primeros lugares en el periodo de cuatro años se ha reducido de más del 20 % a alrededor del 10 %. Las inversiones de las empresas dominantes en sus sistemas internos explican en gran medida ese cambio. Mientras que algunas nuevas tecnologías alteran industrias enteras (como lo que internet hizo con los periódicos o con el DVD), otras suprimen la disrupción de las empresas dominantes.

¿Cómo ocurre esto y por qué aparentemente afecta tanto a la economía? Se debe a que estos sistemas comerciales abordan una de las principales deficiencias del capitalismo moderno. Desde el final del siglo XIX, las empresas innovadoras descubrieron que a menudo podían lograr enormes ahorros de costes al producir a gran escala. Ese cambio redujo drásticamente los precios al consumidor, pero hubo una contrapartida: para que las empresas consiguieran esos grandes volúmenes, los productos y servicios se tenían que estandarizar. Es muy conocida la frase de Henry Ford que declaró que los compradores de coches podían tener «cualquier color, siempre que sea negro». Las cadenas minoristas lograron su eficiencia proporcionando un conjunto limitado de productos a sus miles de tiendas. Las compañías financieras ofrecían hipotecas y préstamos estándar. Como resultado, los productos contaban con limitados conjuntos de funciones; las tiendas tenían una oferta reducida y respondían lentamente a la demanda cambiante; y mucha gente no podía conseguir préstamos o los obtenía solo en unas condiciones costosas y que no se ajustaban a sus necesidades.

Gráfico: Las ‘start-ups’ tardan más en progresar y salir al mercado

Azul: Tiempo promedio desde el primer capital de riesgo hasta la salida al mercado

Rosa: La media de duración de las start-ups en etapa inicial

Naranja: La media de duración de las start-ups de capital semilla

El software cambia esa ecuación y supera en parte todas estas limitaciones. Esto se debe a que reduce los costes de gestionar la complejidad. Con los datos correctos y la organización adecuada, el software permite a las empresas adaptar los productos y servicios a las necesidades individuales, y ofrece por tanto una mayor variedad o más funciones de los productos. Esto les permite superar a los mejores rivales, para dominar así sus mercados. Las tiendas de la cadena Walmart ofrecen una selección de productos mucho mayor que las de Sears o Kmart, y responden más rápido a las necesidades cambiantes de los clientes. Sears fue durante mucho tiempo el rey del comercio minorista, pero actualmente Walmart ocupa su lugar y Sears está en bancarrota. Toyota produce rápidamente nuevos modelos cuando detecta nuevas tendencias de consumo, pero las empresas automotrices más pequeñas no pueden pagar los miles de millones de euros que se necesitan para hacer lo mismo. De igual modo, solo Boeing y Airbus logran construir nuevos aviones jumbo jets altamente complejos. Las cuatro principales compañías de tarjetas de crédito tienen los datos y los sistemas para enviar ofertas de manera efectiva a los usuarios individuales; obtienen la máxima ganancia y participación de mercado y así lo dominan.

Estas plataformas habilitadas por software han permitido que las principales empresas consoliden su dominio. También han frenado el crecimiento de los rivales, incluidas las start-ups innovadoras.

Diversas pruebas respaldan la idea de que se ha desacelerado sustancialmente el crecimiento de las start-upsUna señal es el tiempo que tardan las start-ups respaldadas por capital de riesgo en recibir la financiación: de 2006 a 2020, la media de duración de una start-up en la etapa de financiación de la ronda de capital semilla creció de 0,9 años a 2,5 años. La media de duración de una start-up en la etapa tardía subió de 6,8 años a 8,1 años en ese mismo período. Entre las empresas que fueron adquiridas, el tiempo promedio desde la primera financiación hasta la adquisición se triplicó, de poco más de dos años en 2000 a 6,1 años en 2021. Algo similar pasa con las empresas que salieron a bolsa. Pero la evidencia más clara de la desaceleración es lo que ocurre cuando las compañías se vuelven más productivas.

Las grandes empresas utilizan tecnologías a gran escala que dificultan el crecimiento de las start-ups

La característica clave de las economías dinámicas, a lo que el economista Joseph Schumpeter se refirió como «destrucción creativa», es que las empresas más productivas, con mejores productos o costes más bajos o mejores modelos de negocio, crecen más rápido que las menos productivas y al final las desplazan. Pero después de 2000, las empresas con un determinado nivel de productividad crecieron, en promedio, solo la mitad de rápido que las compañías con el mismo nivel de productividad en la década de 1980 y 1990. En otras palabras, la productividad tiene menos efecto sobre el crecimiento que antes. Cuando las empresas productivas crecen más lentamente, es menos probable que ‘salten’ por encima de los líderes de la industria y los sustituyan, que es la característica de la disrupción. El año pasado, la investigación que realicé con mi colega Erich Denk vinculó directamente el impacto menguante de la mejora de la productividad con el mayor dominio de la industria por parte de las grandes empresas y sus inversiones en software y otros activos.

Otro punto de vista, expresado enérgicamente por los investigadores del Congreso de EE. UU. en audiencias y en un informe publicado en 2020, atribuye la disminución del dinamismo económico a una fuente diferente: al debilitamiento de la política antimonopolio del Gobierno estadounidense desde la década de 1980. En este sentido, se ha permitido que las grandes empresas adquieran a sus rivales, lo que ha reducido la competencia. Las adquisiciones han hecho que estas empresas sean más dominantes, especialmente las Big Tech, algo que ha provocado una disminución tanto en el surgimiento de nuevas empresas tecnológicas como en la financiación de capital de riesgo para las empresas en etapa inicial. Pero, de hecho, la tasa a la que las nuevas empresas de tecnología ingresan al mercado ha disminuido solo modestamente desde el aumento excepcional del boom de las puntocom, y la financiación de capital de riesgo en etapa inicial está en niveles récord: con el doble de financiaciones hoy que en 2006 y una cantidad cuatro veces mayor. El problema no consiste en que las grandes empresas impidan que las start-ups entren a los mercados u obtengan financiación; el problema es que las grandes empresas utilizan tecnologías a gran escala que dificultan el crecimiento de las start-ups. Además, las grandes empresas como Walmart y Amazon han crecido principalmente por haber adoptado modelos comerciales superiores, no por la compra de sus rivales. De hecho, la cantidad de adquisiciones por parte de las empresas dominantes ha disminuido desde 2000.

No hay duda de que tales adquisiciones a veces afectan el panorama de las start-ups. Algunos investigadores han identificado las llamadas «zonas de muerte», donde las Big Tech realizan adquisiciones para acabar con la competencia, y el capital de riesgo se vuelve difícil de encontrar. Pero otros investigadores concluyen que las start-ups a menudo responden trasladando su actividad innovadora a una aplicación diferente. Además, la perspectiva de adquisición por parte de una gran empresa suele incentivar a las personas a fundar start-ups. De hecho, a pesar de lo que le pasó a Nuance, la cantidad de start-ups de reconocimiento de voz y procesamiento de lenguaje natural que entraron al mercado se ha cuadruplicado desde 2005, y el 55 % de ellas han recibido inversiones de capital de riesgo.

La desaceleración en el crecimiento de las start-ups innovadoras no es solo un problema para miles de empresas en el sector tecnológico; los vientos en contra de las empresas como Nuance son responsables de los problemas que afectan la situación de toda la economía. Los investigadores de la Oficina del Censo de EE. UU. han demostrado que el crecimiento más lento de las empresas productivas explica gran parte de la desaceleración del crecimiento de la productividad agregada (la cantidad de bienes y servicios finales que produce la economía por persona) y sirve como un indicador aproximado del bienestar económico. Mi propio trabajo también ha mostrado que eso tiene un importante papel en la creciente desigualdad económica, en la mayor división social y en la disminución de la eficacia del Gobierno.

¿Qué se necesita para corregir esta tendencia? Podría ayudar una aplicación más estricta de las leyes antimonopolio, pero los cambios en el dinamismo económico están impulsados más por las nuevas tecnologías que por las fusiones y adquisiciones. Un problema más básico es que las nuevas tecnologías más importantes son propiedad de esas empresas, accesibles solo a un pequeño número de grandes corporaciones. En el pasado, las nuevas tecnologías se difundían ampliamente, ya fuera a través de licencias o mediante desarrollos alternativos de manera independiente por las empresas: algo que permitió una mayor competencia e innovación. El Gobierno a veces ayudaba en este proceso. Bell Labs desarrolló el transistor, pero las autoridades antimonopolio obligaron a licenciar la tecnología de manera generalizada, lo que creó la industria de los semiconductores. De manera similar, IBM creó la industria del software moderno cuando, en respuesta a la presión antimonopolio, comenzó a vender el software por separado del hardware.

En la actualidad estamos viendo algunos desarrollos similares incluso sin la acción del Gobierno. Amazon, por ejemplo, abrió su propia infraestructura de IT para crear la industria de la nube, algo que ha mejorado bastante las perspectivas de muchas pequeñas start-ups. Pero la política antimonopolio se puede utilizar para animar u obligar a más empresas grandes a abrir sus propias plataformas. Relajar las restricciones que imponen los acuerdos de no competencia y los derechos de propiedad intelectual a la movilidad de los empleados también podría fomentar una mayor difusión de la tecnología.

Encontrar el adecuado equilibrio de políticas será difícil y llevará tiempo, pero no queremos reducir los incentivos para la innovación. El punto de partida es reconocer que, en la economía actual, la tecnología ha asumido un nuevo papel. Antes era una fuerza que impulsaba la disrupción y la competencia, pero en la actualidad se utiliza para reprimirlas.

Fuente: https://www.technologyreview.es/


Deprecated: trim(): Passing null to parameter #1 ($string) of type string is deprecated in /home1/uiolibre/public_html/wp-content/plugins/simple-lightbox/includes/class.utilities.php on line 545