Archives enero 2024

Según una investigación, aquellos que emplean Linux experimentan niveles más altos de satisfacción y felicidad

Imagina que te encuentras sentada frente a tu computadora, inmersa en un proyecto crucial. De repente, la pantalla se congela y, a pesar de tus intentos de reiniciarla, la situación persiste. La desesperación se apodera de ti, y te ves en la encrucijada de no saber cómo proceder.

Si ha experimentado esta situación, es probable que haya sentido la frustración asociada con el uso de un sistema operativo cerrado. Sistemas como Windows o macOS están bajo el control de empresas que buscan principalmente sus propios intereses en lugar de los tuyos. Se trata de sistemas «micro», como el propio nombre sugiere, que no son tan operativos. Dichas empresas tienen la capacidad de modificar el software en cualquier momento, generando potenciales inconvenientes para los usuarios.

En contraste, GNU/Linux se presenta como un sistema operativo de código abierto. Esto implica que cualquiera tiene la libertad de modificar el software. Como consecuencia, Linux se caracteriza por ser más estable y confiable en comparación con los sistemas operativos cerrados.

Un reciente estudio realizado por la Universidad de Stanford arrojó resultados interesantes: las personas que optan por Linux experimentan niveles más altos de felicidad en comparación con aquellas que utilizan sistemas operativos cerrados. La investigación reveló que los usuarios de Linux muestran un mayor grado de satisfacción en sus vidas y se sienten más capacitados para gestionar su propio entorno tecnológico.

Estadísticas y Fuentes

El análisis realizado a cabo por la Universidad de Stanford se fundamentó en una encuesta realizada a más de mil participantes. Según los resultados de la encuesta, aquellos que utilizan Linux exhibieron un índice de satisfacción con la vida de 7,2 en una escala del 1 al 10, en contraste con una puntuación de 6,8 para los usuarios de sistemas operativos cerrados. Asimismo, se observó que los usuarios de Linux eran más propensos a sentirse capacitados para gestionar su entorno tecnológico, obteniendo una calificación de 6,9 ​​en comparación con los usuarios de sistemas operativos cerrados, quienes obtuvieron una puntuación de 6,3.

Felicidad y Linux

Información a menudo omitida por la mayoría de los sitios web El estudio de Stanford no constituye la única investigación que ha revelado que los usuarios de Linux experimentan mayores niveles de felicidad. Un estudio realizado por la Universidad de Cambridge señaló que quienes optan por Linux experimentan niveles inferiores de estrés y ansiedad en comparación con los usuarios de sistemas operativos cerrados.

Las investigadores postulan diversas razones que explicarían la mayor satisfacción entre los usuarios de Linux. Una de ellas radica en la mayor personalización que ofrece Linux en comparación con los sistemas operativos cerrados. Esta flexibilidad permite a los usuarios adaptar el sistema operativo según sus necesidades específicas, lo que podría contribuir a un mayor grado de satisfacción.

Otro factor a considerar es la seguridad que ofrece Linux en comparación con los sistemas operativos cerrados. Esto se debe a la mayor transparencia de Linux, que posibilita a los usuarios entender el funcionamiento interno del software. Esta transparencia dificulta que los posibles atacantes aprovechen las vulnerabilidades de seguridad.

En países como México y España, donde prevalece el uso de sistemas operativos cerrados como Windows y macOS, es plausible que esto tenga implicancias significativas en la felicidad de los usuarios. Sin embargo, Linux está ganando popularidad en estos países debido a su mayor accesibilidad en términos económicos ya una experiencia de usuario mejorada.

Fuente: www.somoslibres.org

Empieza el año con una limpieza digital

Comencemos el año nuevo con una limpieza digital: cancelemos suscripciones innecesarias, eliminemos datos innecesarios y cuentas sin utilizar, cambiemos contraseñas poco seguras, entre otras cosas.

¿Cuál es una de las mejores maneras de comenzar el año para garantizar un 2024 positivo y fructífero? Te sugerimos que hagas una limpieza de primavera invernal en tu mundo digital, ya que esto sin duda te ayudará a tener un año más productivo. Hemos preparado algunos consejos sobre cómo hacerlo: deshazte de las cosas que no necesitas, desactiva las distracciones y molestias, y mejora tu higiene digital.

1. Elimina archivos innecesarios

Comencemos con lo básico: elimina archivos que ya no necesitas. Esta etapa puede parecer fácil, pero en realidad puede llevar un tiempo, sencillamente porque todos tenemos una cantidad enorme de archivos. Por lo tanto, es importante no abrumarse con la tarea. Intenta dividirla en pequeños pasos, por ejemplo, eliminar 10, 20 o 50 archivos cada día, o incluso varias veces al día.

Los principales lugares para buscar archivos basura son:

  • El escritorio. Un candidato evidente sobre dónde comenzar la limpieza digital. Una vez que hayas limpiado el escritorio de atajos y archivos antiguos, no solo tendrás más espacio de almacenamiento, sino que también tendrás una sensación de orden, lo que puede aumentar la productividad, levantar el ánimo y ayudarte a abordar los siguientes pasos de la limpieza digital.
  • La carpeta “Escritorio anterior”. Lo más probable es que tengas una carpeta de este tipo en algún lugar de la SSD del ordenador (o algo similar, como “Unidad de disco antigua” o “Archivos de ordenador antiguos”). Y dentro de él, a menudo hay otro “Escritorio anterior”, y dentro de él, otro, y así sucesivamente. Puede parecer abrumador, pero ha llegado el momento de finalmente tratar con este abismo de directorios anidados.

Deshazte de las carpetas anidadas del Escritorio anterior.

  • La carpeta de descargas. Documentos antiguos, archivos de instalación de programas eliminados hace mucho tiempo, imágenes guardadas que datan de hace una década y otras reliquias digitales: es probable que ya no las necesites y puedas tan solo eliminarlas todas. No te olvides de limpiar la carpeta de descargas tanto del ordenador como de tu teléfono inteligente (y en tu tableta, si tienes una).
  • La galería de fotografías de tu teléfono inteligente. Si eliminas todas las fotografías duplicadas, las capturas de pantalla tomadas por razones desconocidas y los vídeos que tu bolsillo decidió tomar por sí solo, es posible que puedas posponer la compra de un nuevo teléfono inteligente con más memoria por uno o dos años más. Aquí es donde vienen al rescate las aplicaciones especiales, que buscan duplicados exactos o archivos similares, como una serie de tomas idénticas, de las cuales solo necesitas conservar una o dos. Búscalas en las tiendas de aplicaciones con la palabra clave “duplicado”.
  • El almacenamiento en la nube. Esto es similar a la carpeta Escritorio anterior, pero en la nube. Claro, puedes pagar por espacio adicional en el disco y acumular archivos durante unos años más. Pero ¿no sería mejor deshacerse de ellos?
  • Archivos grandes y duplicados en el ordenador. Si necesitas liberar espacio rápidamente en el disco duro o la SSD, la forma más fácil es eliminar algunos archivos de gran tamaño o deshacerse de archivos idénticos, cuidadosamente dispersos en diferentes carpetas. Para buscar automáticamente archivos grandes, puedes usar la función Archivos grandes en la pestaña Rendimiento de la aplicación de Kaspersky. Solo debes especificar el tamaño mínimo y el área de búsqueda (el ordenador completo o las carpetas elegidas), y en unos minutos recibirás una lista completa de los archivos cuyo tamaño supera el límite. A continuación, puedes escoger eliminarlos de forma masiva o individual.

Además, en la pestaña Rendimiento, puedes buscar y eliminar archivos duplicados. Si las utilizas juntas, estas funciones (disponibles para las suscripciones a Kaspersky Standard, Kaspersky Plus y Kaspersky Premium) podrían evitarte tener que comprar un nuevo disco duro o SSD.

Una vez que hayas terminado de eliminar los archivos innecesarios, recuerda vaciar la Papelera de reciclaje (o la carpeta “Fotos eliminadas”, si es la galería de fotografías de tu teléfono inteligente).

2. Limpia el correo electrónico y los servicios de mensajería instantánea

La siguiente etapa importante en la limpieza digital es ordenar tus aplicaciones de correo electrónico y mensajería. De esta forma, se reducirá la cantidad de espacio que ocupa tu correspondencia y, sobre todo, se mejorará tu experiencia de uso de estas aplicaciones. ¿Qué debes hacer primero?

  • Elimina los mensajes no leídos. Esos números aterradores en círculos rojos sobre el icono de la aplicación de servicio de mensajería instantánea pueden ser tan irritantes y evitar que administres los nuevos mensajes entrantes a tiempo. Esto podría hacer que pases por alto algo importante, priorices mal tus tareas, te pases de una fecha límite o faltes a una reunión, entre otras cosas. Al igual que la limpieza de archivos, la clasificación de correos electrónicos y mensajes no leídos puede llevar un tiempo. Por eso, lo mejor es adoptar un enfoque constante y sistemático: intenta dividir el proceso en pequeños pasos. Trata de tener siempre menos elementos no leídos al final de cada día; tarde o temprano, llegará a cero.

¿Te suena familiar? Ayúdate a ti mismo: intenta ordenar de a poco todos tus mensajes no leídos.

  • Cancela la suscripción a boletines informativos por correo electrónico y canales de servicio de mensajería instantánea innecesarios. Este paso también puede ayudarte con la tarea anterior. Si eliminas las fuentes de información innecesarias, reducirás la cantidad de elementos nuevos no leídos, por lo que podrás alcanzar aún más rápido ese cero tan deseado. Debes ser determinante en esto: en lugar de solo ignorar otro mensaje o correo electrónico poco interesante, cancela la suscripción de inmediato.
  • Elimina los chats de servicio de mensajería instantánea antiguos. La correspondencia con un agente de bienes raíces sobre el apartamento del que te mudaste hace tres años, las conversaciones con transportistas y otros mensajes similares de valor incalculable algún día formarán la base de tus memorias. Es broma, por supuesto: elimínalo todo sin dudar.
  • Elimina correos electrónicos con archivos adjuntos grandes. ¿Te envía tu proveedor de correo electrónico mensajes molestos en los que te dice que estás a punto de quedarte sin espacio de almacenamiento? La forma más fácil de limpiar rápidamente la bandeja de entrada es eliminar los correos electrónicos antiguos con archivos adjuntos grandes. La mayoría de los proveedores y programas de correo electrónico te permiten buscarlos sin mucha dificultad. Gmail es el más sencillo: para buscar todos los correos electrónicos de más de 10 megabytes, solo escribe “tamaño:10000000” en la barra de búsqueda.

La forma más sencilla de limpiar rápidamente la bandeja de entrada: busca y elimina todos los correos electrónicos grandes.

  • Limpia la carpeta de correos no deseados. Por lo general, los correos electrónicos no deseados individuales no ocupan mucho espacio. Pero, si no has revisado la carpeta de correos no deseados por un tiempo, es posible que hayas acumulado una tonelada de mensajes. Si los eliminas, estarás aún más lejos del límite de la casilla de correos.

3. Cierra las pestañas antiguas

Ahora es el momento de ocuparnos del programa que más usamos todos: el navegador. Las pestañas antiguas que se dejan abiertas durante meses, o años, no solo se comen la memoria del dispositivo, sino que también dificultan la búsqueda de la información relevante que de verdad necesitas. Además, una gran cantidad de pestañas puede suponer un grave obstáculo para la actualización del navegador, que, por cierto, es uno de los procedimientos de higiene digital más importantes que existen.

Así que intenta eliminar las pestañas innecesarias en todos los navegadores que utilizas, incluido el de tu teléfono inteligente. Aquí hay dos enfoques: o actuar con rapidez y determinación, cerrando brutalmente todas las pestañas sin preocuparse por lo que contienen, o hacerlo de forma gradual y cuidadosa, cerrando las pestañas en lotes de 10 a 20 a la vez y comprobando mientras tanto si hay algo importante en ellas. Puedes añadir las que realmente necesites a marcadores o grupos de pestañas.

Cierra todas las pestañas innecesarias en el navegador; será más fácil encontrar las importantes.

Y, ya que estamos hablando del navegador, también borra la caché. Si no lo has hecho antes, te sorprenderás de la cantidad de espacio que ocupa. Además, es una buena idea revisar todas las extensiones instaladas en el navegador: si hay alguna que no estás usando, ahora es el momento perfecto para eliminarla.

4. Cancela las suscripciones innecesarias

Casi todos los servicios en línea ofrecen hoy en día por lo menos un tipo de suscripción de pago. Estas suscripciones pueden comenzar a acumularse a niveles irracionales. ¿Cuánto cuesta todo esto? ¡Quién sabe! Sin exagerar, las personas a menudo no tienen idea de cuánto pagan por todas sus suscripciones digitales y, por lo general, subestiman los gastos totales varias veces en comparación con lo que cuestan en realidad.

Por lo tanto, la cancelación de suscripciones innecesarias brinda un beneficio financiero inmediato además de ser un beneficio sin dudas mayor de lo que imaginas. Por otro lado, la tarea no es tan sencilla: debes recordar todas tus suscripciones, recopilar y organizar su información, clasificar qué es cada cosa, y solo entonces comprenderás qué debes dar de baja. También puede haber suscripciones familiares, con duplicados en los distintos dispositivos de los miembros de la familia.

El lado positivo es que hay una aplicación especial para administrar las suscripciones: SubsCrab. Esta aplicación puede organizar la información sobre todas tus suscripciones, calcular los gastos mensuales, mostrarte fechas útiles y advertirte sobre los días de pago de antemano, decirte qué debes hacer para cancelar una suscripción en particular e incluso proponer opciones de suscripción alternativas o códigos promocionales y descuentos para las renovaciones.

La aplicación SubsСrab ayudará a clasificar las suscripciones de pago y cancelar las innecesarias.

5. Elimina las aplicaciones que no usas

Seguro tienes aplicaciones en tu teléfono inteligente que no has usado en más de un año. O tal vez incluso algunas que nunca has abierto. Estas aplicaciones no solo ocupan la memoria del dispositivo, sino que también consumen lentamente el tráfico de Internet y la energía de la batería y, sobre todo, obstruyen la interfaz y pueden continuar recopilando datos sobre el teléfono inteligente y sobre ti.

¡Es hora de deshacerse de ellas de una vez por todas! Si eliminas al menos una aplicación no utilizada al día, dentro de un mes aproximadamente desaparecerán todas, y se restablecerá el orden en la pantalla de inicio del teléfono inteligente.

Sin embargo, hay una manera de detectar inmediatamente todas las aplicaciones innecesarias, tanto en ordenadores con Windows como en teléfonos inteligentes con Android, con la ayuda de la función Aplicaciones no utilizadas que se incluye en las suscripciones a Kaspersky Standard, Kaspersky Plus y Kaspersky Premium. Esta función te muestra las aplicaciones que rara vez usas y te permite eliminarlas todas de una sola vez.

Hay algunas aplicaciones de Android protegidas que son imposibles de desinstalar, incluso si no las necesitas en absoluto, todo por el capricho del fabricante del teléfono inteligente. Algunas de estas aplicaciones incluyen un navegador propio o un cliente de red social que no se usa. Sin embargo, existen métodos especiales para desinstalar esas aplicaciones, que hemos cubierto en detalle en esta guía integral.

6. Desactiva las notificaciones innecesarias

Uno de los principales obstáculos para la tranquilidad digital en estos días puede ser el flujo interminable de notificaciones que llegan desde casi todas las aplicaciones, ya sea una de seguimiento de actividad física o una calculadora. Pero, por suerte, en este caso, no estamos a merced de nuestros teléfonos. Así que puedes consultar la lista de aplicaciones que pueden enviar notificaciones y reducirla.

Configuración de notificaciones y modo de enfoque en Android.

Aquí hay dos posibles soluciones. La primera es radical: desactiva las notificaciones para todas las aplicaciones excepto las más esenciales: aplicaciones bancarias, herramientas de trabajo y servicios de mensajería instantánea. La segunda es moderada: identifica las aplicaciones que abusan descaradamente de las notificaciones y las disparan sin motivo, y desactiva estas plagas.

También es útil desactivar las notificaciones en los servicios de mensajería instantánea para contactos, canales y chats no tan importantes. Además, puedes echar un vistazo más de cerca a la configuración del modo de enfoque. Está disponible en todos los sistemas operativos modernos, como Android, iOS y iPadOS, Windows y macOS, y te permite limitar la cantidad de notificaciones y demás ruido digital durante un período establecido.

Configuración de notificaciones y modo de enfoque en iOS.

Además, recuerda que en estos días no son solo las aplicaciones las que envían notificaciones; muchos sitios web también utilizan sistemas de notificación integrados en el navegador para esta finalidad. Así que asegúrate también de desactivar todas esas notificaciones innecesarias. Por cierto, tenemos una guía aparte sobre cómo evitar que los navegadores te molesten con cosas triviales.

7. Elimina las cuentas que no usas

Las cuentas con servicios en línea, incluso las de menor importancia, siempre suponen un riesgo potencial. Si se piratea una cuenta, podría usarse para cometer fraude, lavar bienes robados, atacar a otros usuarios y más, y todo con tu nombre. Además, si una tarjeta bancaria está vinculada a una cuenta de este tipo, podría haber consecuencias perjudiciales.

Por lo tanto, es mejor no dejar el destino de las cuentas al azar: si ya no necesitas una cuenta en particular, es aconsejable eliminarla. Esta parte de la limpieza puede presentar un desafío particular: primero, deberás recordar qué cuentas has creado; después, tendrás que recordar las credenciales de inicio de sesión y, solo entonces, podrás eliminarlas. ¡Pero realmente vale la pena hacerlo!

Para evitar abrumarte, intenta eliminar al menos una cuenta innecesaria por semana. Y ya que estamos, te recomiendo que añadas todas tus cuentas a un administrador de contraseñas. De esa manera, estarán todas en un solo lugar, las contraseñas se almacenarán de forma segura y podrás iniciar sesión con solo unos pocos clics, por lo que la próxima vez que realices una limpieza, no será tan complicado.

Además, si alguno de los servicios que utilizas se ve vulnerado, recibirás una notificación del administrador de contraseñas y podrás tomar medidas rápidamente, ya sea cambiar la contraseña o eliminar la cuenta.

8. Cambia las contraseñas no seguras

Si introduces los datos de tu cuenta en [placeholder KPM], la aplicación te muestra las contraseñas que podrían no ser seguras, ya sea debido a filtraciones de datos o porque usas estas contraseñas en varias cuentas a la vez.

Kaspersky Password Manager te indica qué contraseñas no son seguras y deben cambiarse.

El peligro de la primera situación: cuando una contraseña ya se ha visto vulnerada; no hace falta decirlo: si los delincuentes conocen tu contraseña, hay una amenaza directa a la seguridad de esa cuenta.

En cuanto al uso de la misma contraseña para diferentes plataformas, el riesgo en este caso es que, si se vulnera uno de estos servicios y los atacantes descubren la contraseña, sin duda intentarán usarla para acceder a otras cuentas, una técnica conocida como relleno de credenciales. Por lo tanto, si usas la misma contraseña en todos los sitios, estás en riesgo de que te pirateen varias cuentas a la vez, algo bastante desagradable.

Las contraseñas no seguras deben cambiarse lo más rápido posible. Las contraseñas que ya se han visto vulneradas deben reemplazarse de inmediato. Al momento de cambiar las contraseñas que usas en varios sitios, puedes seguir el proceso paso a paso y editar un par de cuentas a la vez.

Por cierto, Kaspersky Password Manager te ayuda a crear combinaciones de caracteres realmente seguras y únicas mediante un generador de contraseñas aleatorias (para que no tengas que inventar nuevas contraseñas complejas por tu cuenta) y las almacena cifradas de forma segura, lo que sincroniza las contraseñas en todos los dispositivos. La única contraseña que deberás recordar en este caso es la contraseña principal de Kaspersky Password Manager: cifra toda la base de datos de contraseñas, y no se almacena en ningún lugar excepto en tu cabeza.

Por último, para optimizar todos estos procesos de limpieza digital, recomendamos utilizar Kaspersky Premium, que proporciona una protección integral, herramientas de mejora de la productividad, un administrador de contraseñas y muchas otras funciones necesarias para una limpieza digital eficaz en todos los dispositivos de la familia.

Fuente: latam.kaspersky.com

Evita estos 7 errores comunes cuando usas servicios en la nube

Los siete pecados capitales de la seguridad cuando usas servicios en la nube y cómo puedes eliminar estos errores y puntos ciegos para optimizar su uso sin exponerte a riesgos.

La computación en nube es un componente esencial del panorama digital actual. Hoy en día, es más probable que la infraestructura, las plataformas y el software informáticos se ofrezcan como un servicio (de ahí los acrónimos IaaS, PaaS y SaaS, respectivamente) que en una configuración tradicional in situ.

Esto atrae a las pequeñas y medianas empresas (PYME) más que a la mayoría, ya que les permite competir en igualdad de condiciones con rivales de mayor envergadura, con más agilidad empresarial y una rápida escalabilidad, sin necesidad de gastar demasiado. Quizá por eso el 53% de las pymes encuestadas en un informe reciente afirman que gastan más de 1,2 millones de dólares al año en la nube, frente al 38% del año pasado.

Sin embargo, la transformación digital también conlleva riesgos. La seguridad (72%) y el cumplimiento de normativas (71%) son el segundo y tercer reto más citado por las pymes encuestadas. El primer paso para hacer frente a estos retos es comprender los principales errores que cometen las empresas más pequeñas con sus implementaciones en la nube.

Los siete principales errores de seguridad en la nube que cometen las pymes

Seamos claros, los siguientes no son solo errores que cometen las pymes en la nube, las empresas más grandes y con más recursos son a veces culpables de olvidar lo básico. Al eliminar estos puntos ciegos, su organización puede dar grandes paso hacia la optimización de su uso de la nube, sin exponerse a riesgos financieros, o de reputación, potencialmente graves.

1. Sin autenticación multifactor (MFA)

Las contraseñas estáticas son intrínsecamente inseguras y no todas las empresas siguen una política sólida de creación de contraseñas. Las contraseñas pueden ser robadas de varias maneras, por ejemplo mediante phishing, métodos de fuerza bruta o simplemente adivinadas. Por eso es necesario añadir una capa adicional de autenticación. La MFA hará mucho más difícil que los atacantes accedan a las aplicaciones de las cuentas SaaS, IaaS o PaaS de sus usuarios, mitigando así el riesgo de ransomware, robo de datos y otros posibles resultados. Otra opción consiste en cambiar, siempre que sea posible, a métodos alternativos de autenticación, como la autenticación sin contraseña.

2. Depositar demasiada confianza en el proveedor de la nube

Muchos responsables de TI creen que invertir en la nube significa efectivamente externalizar todo a un tercero de confianza. Esto es cierto solo en parte: existe un modelo de responsabilidad compartida entre el proveedor y el cliente, para asegurar la nube. Lo que hay que tener en cuenta dependerá del tipo de servicio -SaaS, IaaS o PaaS- y del proveedor. Si bien la mayor parte de la responsabilidad recae en el proveedor, vale la pena invertir en controles adicionales de terceros.

3. No hacer copias de seguridad

Nunca des por sentado que tu proveedor de servicios en la nube (por ejemplo, para servicios de almacenamiento/compartición de archivos) te cubre las espaldas. Debes pensar en el peor de los casos: un fallo del sistema o un ciberataque a tu proveedor. No es solo la pérdida de datos lo que afectará a su organización, sino también el tiempo de inactividad y el golpe a la productividad que podría seguir a un incidente.

4. No aplicar parches con regularidad

Si no aplicas parches, expones tus sistemas en la nube a la explotación de vulnerabilidades. Esto, a su vez, podría dar lugar a infecciones de malware, fugas de datos y mucho más. La gestión de parches es una de las mejores prácticas de seguridad que es tan importante en la nube como en demás sistemas.

5. Desconfiguración de la nube

Los proveedores de servicios en la nube son un grupo innovador, pero el enorme volumen de nuevas funciones y capacidades que lanzan en respuesta a los comentarios de los clientes puede acabar creando un entorno en la nube increíblemente complejo para muchas pymes. Esto hace que sea mucho más difícil saber qué configuración es la más segura. Los errores más comunes son configurar el almacenamiento en la nube para que cualquier tercero pueda acceder a él y no bloquear los puertos abiertos.

6. No supervisar el tráfico de la nube

La detección y respuesta rápidas son críticas si se quieren detectar las señales a tiempo, para contener un ataque antes de que tenga la oportunidad de afectar a la organización. Esto hace que la supervisión continua sea imprescindible. Vale la pena pensar que no se trata de “si” el entorno de nube será vulnerado, sino de “cuándo”. 

7. No cifrar las joyas de la corona de la empresa

Ningún entorno es 100% a prueba de brechas. Entonces, ¿qué ocurre si un malintencionado consigue acceder a sus datos internos más sensibles o a información personal de empleados/clientes altamente regulada? Si los encripta en reposo y en tránsito, se asegurará de que no puedan utilizarse, incluso si se obtienen.

Cómo garantizar la seguridad en la nube

El primer paso para abordar estos riesgos de seguridad en la nube es comprender cuáles son sus responsabilidades y de qué áreas se encargará el proveedor. Se trata de decidir si confía en los controles de seguridad nativos de la nube o si es prefieres mejorarlos con productos adicionales de terceros.

Ten en cuenta lo siguiente:

  • Invertir en soluciones de seguridad de terceros para mejorar la seguridad en la nube y la protección de las aplicaciones de correo electrónico, almacenamiento y colaboración, además de las funciones de seguridad integradas en los servicios en la nube que ofrecen los principales proveedores de servicios en la nube del mundo
  • Añadir herramientas de detección y respuesta ampliadas o gestionadas (XDR/MDR) para impulsar una respuesta rápida ante incidentes y la contención/remediación de infracciones
  • Desarrollar e implantar un programa continuo de aplicación de parches basado en el riesgo y basado en una sólida gestión de activos (es decir, saber qué activos en la nube se tienen y asegurarse de que están siempre actualizados)
  • Cifrar los datos en reposo (a nivel de base de datos) y en tránsito para garantizar su protección. Esto también requerirá una detección y clasificación de datos eficaz y continua
  • Definir una política clara de control de acceso; exigir contraseñas seguras, MFA, principios de mínimo privilegio y restricciones basadas en IP/listas de acceso permitido para IP específicas
  • Considerar la adopción de un enfoque de confianza cero, que incorporará muchos de los elementos anteriores (MFA, XDR, cifrado) junto con la segmentación de la red y otros controles

Muchas de las medidas anteriores son las mismas mejores prácticas que uno esperaría desplegar también en los sistemas in situ, con algunos detalles que serán diferentes. Lo más importante es recordar que la seguridad en la nube no es solo responsabilidad del proveedor y que debes tomar el control para prevenir los riesgos cibernéticos.

Fuente: www.welivesecurity.com

Slimbook renueva los últraportátiles Executive y los sobremesa Kymera

Si a finales del año pasado Slimbook anunciaba la renovación de su ultraportátil más asequible, recién comenzado el presente hacen lo propio con dos de sus equipos más top, portátil y sobremesa respectivamente, ambos ya disponibles para su distribución a través del nuevo sitio web de la compañía.

En efecto, la marca española comienza 2024 renovada por fuera y por dentro: por fuera, con su nueva web; por dentro, con los componentes que montan sus equipos, aunque en el caso del Slimbook Elemental se aunaron los dos adverbios. En esta entrada, sin embargo, hablamos de los nuevos Executive y Kymera.

Introducido a mediados de 2021, el Slimbook Executive acaba de recibir su segunda actualización a nivel de especificaciones técnicas. Dicho lo cual, el ultraportátil conserva las características que lo elevaron a buque insignia de la marca valenciana: diseño elegante con chasis de magnesio y aluminio, delgadez máxima (1,5 y 2mm) y ligereza (1,3 y 1,6kg), pantallas HiDPI de 2,5K y 2,8K sRGB 100% a 90Hz, etc.

El Slimbook Executive, disponible en 14 y 16 pulgadas, incluye entre sus novedades:

  • Memorias RAM DDR5 a 5200Mhz, en lugar de DDR4 3200Mhz.
  • Procesador Intel Core i7-13700H hasta 5,00 GHz, con 14 cores, 6 performance y 8 eficientes, que suman 20 hilos y caché de 24MB.
  • Gráficos Intel Iris Xe G7 o NVIDIA® GeForce RTX 4060 de 8GB y TGP hasta 95W (siendo un 22% más potente que la anterior RTX 3060 de 4GB).
  • Posibilidad de elegir color gris color o negro intenso.

De segundo plato, aunque bien podría ser primer y único está el Slimbook Kymera, un nombre de modelo que se traduce en realidad en las torres de sobremesa y por ende en los equipos más potentes de Slimbook, pese a que por la amplia configuración disponible tanto por el tamaño de la caja como por el tipo de componentes, resulta complicado establecerlos en una gama concreta.

Las novedades más destacadas para los nuevos Slimbook Kymera incluyen:

  • Nuevo tamaño ETX, manteniendo la versatilidad de los formatos MATX y ATX.
  • Procesadores Inte y AMD de última generación, sin descuidar la gama económica de generación anterior
  • Gráficas integradas o dedicadas de NVDIA RTX, AMD READEON e INTEL ARC, según tus necesidades.
  • Discos NVMe M.2 o discos SSD y mecánicos SATA3, para almacenar más de 100TB
  • Combinaciones con Wifi 6 o con tarjetas de red de 10GB.
  • LEDs interiores opcionales, para los que no quieren grandes luces.

Más información en la página del producto, según el formato elegido: Kymera MATXKymera ATX y Kymera ETX (los modelos ATX y ETX se separan a su vez en Ventus y Aqua, o refrigeración por aire y agua, respectivamente).

Fuente: www.muylinux.com

Asesinos de Twitter

Millones de personas han abandonado el «nido del pájaro» y se han pasado a los servicios descentralizados de redes sociales.

¿Quiénes? Bluesky, Discord, Mastodon, Nostr y Threads.

¿Cuándo? Ahora.

Durante la mayor parte de los últimos 17 años, la agitada, cambiante, díscola, unas veces divertida, otras horrible e interminable conversación global tuvo un epicentro: Twitter.

Si quería saber qué estaba pasando y de qué se hablaba en aquel momento, Twitter era el único lugar.

Entonces, Elon Musk compró Twitter, lo rebautizó como X, despidió a la mayoría de sus empleados, y eliminó sus sistemas de moderación y verificación. Puso en marcha una nueva estructura financiera que incentiva a los creadores a difundir y amplificar las mentiras y la propaganda. Muchas personas ya han empezado a buscar un servicio que sustituya a X, preferiblemente uno que esté fuera del control de una sola persona.

Las redes sociales descentralizadas o federadas permiten la comunicación entre servidores o plataformas alojadas de forma independiente al utilizar protocolos de red como ActivityPub, AT Protocol o Nostr. Ofrecen una moderación más granular, mayor seguridad frente a los caprichos de un amo corporativo o un censor gubernamental, y la oportunidad de controlar tu gráfico social. Incluso es posible pasar de un servidor a otro y seguir a los mismos usuarios.

Sin duda, el sueño de un servicio descentralizado similar a Twitter existe desde hace años. La historia está plagada de intentos fallidos, entre los que destacan App.net e Identi.ca. Nunca surgió un competidor real porque no había suficientes personas con una razón de peso para abandonar Twitter, o un lugar al que ir si lo hacían. Ahora tienen ambas cosas.

Según Similarweb, el tráfico de X ha bajado casi un 20%, año tras año. Otro estudio, realizado por Apptopia, reveló que el número de usuarios activos diarios pasó de 141 millones a 120 millones. Mientras tanto, servicios descentralizados como Mastodon, Bluesky y algunos clientes de Nostr han aumentado su popularidad. Pero Threads, de Meta, ha sido el gran ganador. En septiembre, Meta reveló que Threads contaba ya con casi 100 millones de usuarios mensuales. (Al cierre de esta edición, Threads aún no había implementado ActivityPub, pero promete hacerlo). Mastodon, el favorito de los frikis, ocupa un segundo lugar más distante, con 1,5 millones de usuarios activos, pero sigue creciendo. Mientras Bluesky, que funciona con el protocolo AT y aún requiere invitación, alcanza los 2 millones de usuarios.

Y, por supuesto, ¿quién es el verdadero asesino de Twitter? Elon Musk.

 

Fuente: www.technologyreview.es

Mis deseos para el escritorio Linux en 2024

El escritorio Linux está viviendo el mejor momento de su historia, aunque desde algunos círculos todo se ve al revés. La Steam Deck ha logrado ser un relativo éxito en ventas, pero lo realmente importante es que a niveles generales ha tenido una recepción bastante buena, lo que muestra la madurez del sistema en términos tecnológicos. Por otro lado, Linux ha cerrado el 2023 con una cuota cercana al 4% en el escritorio, un porcentaje que sin duda sigue siendo bajo, pero que representa una evidente mejora si la comparamos con aquella época en la que retener el 1% era todo un logro.

La evolución y mejora del escritorio Linux se ha asentado principalmente en dos grandes pilares desde mi punto de vista. Primero está systemd, que ha asentado un marco homogéneo e integrado que ha permitido que el sistema mejore en aspectos como la automatización y la propia integración entre los componentes, dando así una menor sensación de collage que cuando sysvinit y Upstart eran los reyes. Linux es ahora un sistema más integrado y más desatendido, por lo que requiere de menos intervención del usuario para su instalación, configuración y mantenimiento.

Segundo, está la mejora de los controladores de la pila gráfica estándar del sistema, compuesta por Mesa y los drivers para las gráficas presentes en el kernel. Nadie imaginaba hace diez años que con una gráfica de Radeon y los drivers presentes por defecto se podría ejecutar videojuegos triple A con unos resultados que pudiesen hasta superar a Windows, pero es algo que estamos viviendo y de lo que no todo el mundo es consciente.

Volviendo a mí, desde hace años siento desinterés por las distribuciones Linux, más que nada porque veo muchas propuestas y casi ninguna aporta algo realmente nuevo y útil para el usuario común. De todo lo nuevo, lo único que ha captado mi atención son los sistemas operativos inmutables, los cuales se han mostrado, desde mi punto de vista, como un mejor cimiento para tener un sistema Linux orientado al escritorio y de calidad.

Más allá de las características que aumentan la resiliencia del sistema, como el poner en modo de solo lectura parte del sistema de ficheros, la separación de las aplicaciones del sistema (con Flatpak, Podman, Distrobox y Toolbox principalmente), las actualizaciones atómicas y las imágenes de sistema o instantáneas para volver hacia atrás, lo que más me ha gustado de los sistemas operativos inmutables es que reducen mucho la atención que necesitan del usuario, por lo que son mucho más desatendidos.

Por lo demás, mi atención se ha alejado de las distribuciones y las batallas entre escritorios para centrarse más en aspectos como el soporte de los gráficos y la multimedia, áreas que sorprendentemente siguen sin despertar un gran interés entre los usuarios de Linux, a pesar de que son críticas para tener un sistema de escritorio funcional.

Con todo lo dicho, no hace falta ser un lince para adivinar cuáles son mis deseos para el escritorio Linux en 2024, pero aún así voy a desgranarlo todo en apartados para que no quede un batiburrillo difícil de deshilachar.

Que Wayland se asiente definitivamente

Wayland se ha convertido, por méritos propios, en la mayor eterna promesa de la historia del escritorio Linux, sin embargo, parece que en este 2024 va a empezar a ver la luz al final del túnel. El protocolo gráfico no solo empieza a mostrar madurez, sino que también está asentando los cimientos para soportar características como el HDR, una meta que con Xorg se mostraba inalcanzable, y no será porque no se intentó (incluso NVIDIA metió mano al asunto sin resultados tangibles).

La trayectoria de Wayland ha sido un tormento por culpa de un diseño más centrado en pintar ventanas que en soportar un escritorio. Pintar ventanas y soportar un escritorio puede parecer lo mismo desde lejos, pero a la hora de la verdad se ha traducido en que no se tuvieron en cuenta en el diseño original del protocolo una serie de características que son inherentes a un sistema de escritorio y que Wayland no era capaz de soportar.

La situación fue tal que el núcleo duro de los desarrolladores de Wine, compuesto por algunos de los mejores ingenieros que hay dentro del software libre, fue incapaz de implementar Wayland con éxito. Por suerte, la consultora Collabora ha recogido el testigo y parece que está logrando su objetivo, pero que nadie espere que Wine soporte Wayland por defecto en el corto plazo (yo apuesto dos años como mínimo).

En lo que respecta a que Wayland sea tenido en cuenta por parte de los desarrolladores, ese paso depende totalmente de Ubuntu, distribución que acapara desde hace muchos años a más de la mitad de los usuarios del escritorio Linux. Por otro lado, hay un proyecto que podría dar la campanada como la tecnología que termine de asentar el protocolo: KDE Plasma.

Cuando se habla de Wayland sobre un escritorio, GNOME ha llevado siempre la delantera, pero esto podría cambiar radicalmente en los próximos meses si KDE Plasma consigue estabilizar su experiencia con el protocolo durante el transcurso de 2024, y es que, de conseguir eso, empezaría con unos cimientos mucho mejor ajustados al mundo real y por ende podría atraer a bastantes usuarios, sobre todo aquellos que son jugadores de videojuegos.

La sesión sobre Wayland de KDE Plasma ya proporciona en fase estable características como la tasa de refresco variable (VRR), el arrendamiento del gestor de renderización directa (DRM) requerido para soportar la realidad virtual en Wayland y el escalado fraccional, mientras que en GNOME, al menos las dos primeras cosas, todavía se encuentran en fase de desarrollo. Esto ha motivado a Nobara, una de las distribuciones de referencia del Linux Gaming, a cambiar GNOME por KDE Plasma con el fin de aprovecharse de esas posibilidades con menos complicaciones.

Desde KDE han trabajado bastante en los últimos años para tener una implementación de Wayland más ajustada a la realidad del usuario promedio que GNOME. Aquí se puede destacar el soporte para el tearing implementado en el protocolo, el cual lleva la firma de un destacado desarrollador de KDE. De hecho, parece que KDE y Valve han ganado bastante protagonismo en el desarrollo de Wayland, algo en lo que posiblemente haya influido la Steam Deck.

Decir que KDE Plasma puede ser la tecnología que asiente a Wayland definitivamente parecía una locura hace dos años, pero en estos momentos suena a algo verosímil. Si eso ocurre, es probable que Wayland sea el cimiento para iniciar la era dorada de KDE Plasma.

Otros aspectos a tener en cuenta son la consolidación definitiva de Wayland en Ubuntu a partir de la versión 24.04 LTS y la progresión de proyectos como Sway y el compositor modular que desarrolla, wl-roots, que ha logrado hacerse con el estatus de estándar de freedesktop.

Sobre GNOME, obviamente en estos momentos sigue siendo la mejor implementación de Wayland que hay en un escritorio, pero no es menos cierto que en el presente año las cosas pueden cambiar bastante viendo el empuje de KDE Plasma y la cada vez mayor adopción de Sway o wl-roots por parte de proyectos que no ven viable el desarrollo de un compositor propio basado en Wayland.

Mejores drivers gráficos

Como ya he dicho, la mejora del escritorio Linux en los últimos años no se entiende sin la mejora de los drivers proporcionados a través de la pila gráfica estándar del sistema. Esto empezó con la publicación de AMDGPU, el driver oficial de AMD para las gráficas Radeon presente en el kernel Linux, que ha servido como acicate para el inicio de una revolución que ha hecho posible la existencia de la Steam Deck.

Linux ganó con AMDGPU algo que no tenía antes: un driver gráfico de código abierto que saca partido de verdad a una GPU en el espectro x86. Hasta el anuncio de este driver, los usuarios de Linux tenían que conformarse con NVIDIA y su siempre controvertido driver privativo si querían tener potencia en ese frente, pero aquello empezó a cambiar cuando AMD, después de muchos años de peticiones y de arrastrar una situación económica bastante mala, decidiera apostar por un enfoque más abierto que ha mantenido hasta el día de hoy, aunque no sin amagos de querer revertirlo.

AMDGPU abrió la puerta a hacer algo que era inimaginable hace algunos años: ejecutar videojuegos triple A de Windows con la pila gráfica estándar de Linux, sin necesidad de emplear componentes privativos de terceros. Sin embargo, es importante tener en cuenta que el driver no cumple del todo con las especificaciones de la Free Software Foundation al requerir de un firmware privativo para liberar toda la potencia de los procesadores gráficos que soporta.

Debido a que la pila gráfica de Linux está partida en dos, con el kernel por un lado y Mesa por otro, es obvio que AMDGPU no ha estado solo para materializar la revolución se inició con él. Mucho mérito ha tenido también RADV, el driver de Vulkan para AMD presente en Mesa y de origen comunitario, sin el cual la Steam Deck sería inviable, y RadeonSI, que se encarga de soportar OpenGL con unos resultados que poco o nada tienen que envidiar a NVIDIA (valga la redundancia).

Además de un soporte para Radeon que se muestra maduro, en el año 2023 fue incluido NVK, otro driver de Vulkan presente en Mesa, pero que se apoya en el driver Nouveau (el driver de código abierto presente en Linux dirigido a las gráficas de NVIDIA). Desgraciadamente, Nouveau no es un producto oficial, sino derivado de la ingeniería inversa, lo que se traduce en un aprovechamiento muy limitado de las gráficas de NVIDIA y en pocas opciones de que pueda ser empleado en contextos como la ejecución de aplicaciones exigentes a nivel de GPU. Pese a ello, NVK ha despertado cierta esperanza para ofrecer algo mejor que solo un soporte básico para escritorio y aplicaciones que no hacen un uso intensivo de la gráfica.

Pero mi gran deseo para 2024 en este apartado es que ANV, el driver de Vulkan para las gráficas de Intel presente en Mesa, madure de una vez para mostrarse como un rival digno de RADV. Las gráficas dedicadas de Intel generaron grandes expectativas entre los usuarios de Linux, y si bien se han mostrado como productos interesantes para la multimedia (tanto reproducción como el generar contenidos) y la ejecución de OpenGL, el pobre soporte para Vulkan termina convirtiendo a esos productos en una mala opción para jugar desde Linux.

Las gráficas dedicadas de Intel son verdaderas bestias con la ejecución de OpenGL, pero cuando se trata de Vulkan, llegan hasta a ser aplastadas por una vieja Radeon RX 590. Desgraciadamente, el lamentable estado con el que fueron comercializados esos productos, sobre todo en Windows, ha hecho que la compañía centrara todos sus esfuerzos en el sistema de Microsoft y haya dejado a los usuarios de Linux como segundo plato, incumpliendo así las expectativas que muchos teníamos.

En resumidas cuentas, me gustaría que Intel se tomara en serio el desarrollo de ANV de una puñetera vez, porque el escritorio Linux ya no está en el contexto del año 2008. Intel es la única de las tres grandes del espectro x86 que ofrece soporte oficial a través del kernel, OpenGL, Vulkan y VA-API, por lo que tiene todos los cimientos para barrer a sus competidores del mercado de gráficas dedicadas para Linux.

Algunos posiblemente me salten con la cantinela de los pocos usuarios, pero la cuota ha subido durante el transcurso de la última década y no creo que Intel esté en condiciones de rechazar a clientes si quiere que su segmento de gráficas dedicadas sobreviva en el futuro, más viendo que muy pocos usuarios de Windows contemplan la compra de una gráfica que no sea de NVIDIA.

Mejor soporte multimedia

El soporte multimedia es otro de los tradicionales tendones de Aquiles del escritorio Linux. Aquí se unen dos apartados: primero, la prevalencia de los formatos privativos y/o patentados en un sector que en algunos aspectos sigue moviéndose bajo parámetros más bien propios de hace cuarenta años. Segundo, está la falta de drivers a la altura, sobre todo en lo que se refiere a procesar la multimedia mediante hardware (la GPU para más señas).

Sobre los formatos, no queda otra que fomentar el uso de VP9, AV1 y Opus entre los creadores de contenido y las plataformas de vídeo y audio. YouTube impulsa desde hace tiempo VP9 para todo canal o vídeo que alcanza unos mínimos de repercusión, e incluso reprocesa vídeos en AV1 si tienen muchísimo éxito, pero cuando nos salimos de ahí, nos encontramos con un panorama dominado por H.264, un códec que tiene una variante publicada bajo GPLv2, pero que no está libre de unas patentes que ciertas distribuciones se niegan a tragar, entre ellas Fedora y openSUSE.

Fomentar el uso de formatos realmente libres, tanto a nivel de licencia como de patentes, es fundamental para que el escritorio Linux pueda mejorar en la multimedia, porque de no ser así muchos usuarios tendrán que cumplimentar pasos adicionales, aunque estos puedan ser resueltos mediante un checkbox como en Ubuntu.

En lo que respecta a los drivers, me gustaría que las distribuciones preinstalaran libva-utils, pero reconozco que esta es una decisión que pueden conllevar sus riesgos debido a que el soporte para Linux en ese frente no está tan maduro como en Windows. Por otro lado, me gustaría que AMD se implicara más y publicara un Radeon Media Driver equivalente al conocido Intel Media Driver. Si el gigante rojo hace eso, daría todo un golpe sobre la mesa que dejaría temblando a la competencia en el sector doméstico, porque en el profesional todavía anda bastante lejos de lo que ofrece NVIDIA.

En este punto no puedo dejar de lado a PipeWire, el servidor de transmisión de multimedia que se encarga de la captura de la pantalla en Wayland, del soporte de audio y en un futuro de la captura de dispositivos de vídeo como las webcams. Su consolidación definitiva debería producirse dentro de unos meses con el lanzamiento de Ubuntu 24.04 LTS, y es que, cuando se trata de soporte para Linux, la mayoría sigue teniendo a la distribución de Canonical como la gran referente. Si Ubuntu no adopta algo, es poco probable que los desarrolladores de aplicaciones lo tengan en cuenta.

Sistemas operativos inmutables más maduros

No es ningún secreto que me he vuelto un ferviente seguidor de las distribuciones Linux inmutables, no todas, sino las que siguen el enfoque aplicado por Fedora Silverblue, openSUSE MicroOS (Aeon y Kalpa) y Vanilla OS, que apuestan por conceptos como las actualizaciones atómicas, la separación de las aplicaciones del sistema empleando Flatpak y contenedores y la disponibilidad out of the box de imágenes del sistema o instantáneas para volver a un estado anterior. Pero antes de continuar, me gustaría dejar claro que esas características no son inherentes a los sistemas operativos inmutables, sino que pueden encontrarse o ser instaladas en sistemas mutables.

Centrándome en la experiencia de usuario, lo que me gusta de los sistemas inmutables es que intentan hacer que el usuario se centre más en las aplicaciones, pudiendo así desentenderse del sistema operativo y su mantenimiento. Esto es algo que ya comenté hace tiempo cuando dije que Fedora Silverblue hizo que mi uso de Linux se volviera aburrido debido a la poca atención que requería, y en la actualidad, con las actualizaciones del sistema y Flatpak totalmente automatizadas, no me entero de nada.

Enciendo la computadora, la uso y la apagado. Cuando vuelvo a encender todo está al día sin necesidad de que abra una terminal o GNOME Software, pero debido a que Fedora es una distribución de lanzamiento puntual, sí tengo que realizar el cambio de versión de forma manual, y para colmo GNOME Software no garantiza nada si has anulado paquetes del sistema base, cosa que es mi caso con la compilación RPM de Firefox proporcionada por la distribución.

Regresando a un plano más general, los sistemas operativos inmutables tienen bastante potencial, pero dejando a SteamOS 3 a un lado debido a que en realidad no compite con nadie dentro de Linux, Fedora Silverblue se encuentra un tanto sola debido a que es la única que muestra cierto nivel de madurez. Los demás sistemas similares siguen siendo proyectos que necesitan ser pulidos para ofrecer una experiencia sin grandes sobresaltos.

Otro punto en el que los sistemas operativos inmutables necesitan mejorar es la configuración inicial o posinstalación, que llega a ser un poco aparatosa debido al requerimiento de reinicios. El proceso es en realidad corto si uno usa estos sistemas operativos de forma ortodoxa, o sea, delegando todo lo que se pueda en Flatpak, pero algo más de agilidad en este frente no vendría mal y Vanilla OS es la única que tiene algo en esa dirección de entre los sistemas que he usado en serio (que no son todos).

Creo que los sistemas operativos inmutables son el futuro del escritorio Linux, y lejos de ser un deseo, es algo que ha empezado a materializarse con la Steam Deck. De todos los sistemas operativos que he usado de manera intensiva y por un largo periodo de tiempo (incluido Windows), Fedora Silverblue es el que menos atención me ha requerido, y eso lo ha logrado siendo un producto inacabado. El ofrecer un marco que requiera de poca atención por parte del usuario con el fin de que pueda centrarse en las aplicaciones es importante para que un sistema operativo sea amigable para los perfiles con menos conocimientos, y propuestas como Silverblue y MicroOS caminan en esa dirección.

Que Flatpak siga madurando

Y para terminar me gustaría que el formato de paquetes que más uso con diferencia para las aplicaciones, Flatpak, siga madurando en aspectos como la integración y el soporte de ciertas características que todavía se le escapa.

Es obvio que Flatpak necesita madurar, aunque su estado actual es suficiente para cubrir mis bajas exigencias, ya que la informática no va mucho conmigo desde hace unos años. Dentro de todo lo que he usado en este formato durante el pasado año 2023, mi mayor sorpresa fue ver que la compilación Flatpak de ProtonUp-Qt es capaz de integrarse con el reempaquetado en el mismo de Steam, algo que descubrí de manera forzada después de que se me reportara el abandono de la recompilación Flatpak de Proton GloriousEggroll.

Pero la evolución de Flatpak no solo depende del propio formato de paquetes, sino también de la evolución de XDG Desktop Portal, que puede ser definido como una API que sirve para exponer interfaces de D-Bus mediante “portales”, los cuales son usados para acceder a recursos como el acceso de ficheros, a impresoras, la apertura de URI y más. Si XDG Desktop Portal no amplía y mejora sus posibilidades, la propia evolución de Flatpak corre riesgo de verse frenado o al menos ralentizado.

Sobre aplicaciones concretas en formato Flatpak solo tengo dos peticiones para este 2024: que LibreOffice, al igual que Firefox, emplee el diálogo o selector de ficheros de XDG Desktop Portal para integrarse mejor en KDE Plasma y que GNOME Boxes cuente con redireccionamiento de los USB, aunque esto último lo veo bastante menos probable que lo primero.

Fuente: www.muylinux.com

 

 

Linux cumplirá 33 años en 2024

Estabilidad, rendimiento y adaptabilidad son atributos clave de Linux, que domina la computación en la nube y la supercomputación y es fundamental para IoT y los contenedores.

Ahora que 2024 ha despegado, es un buen momento para reflexionar sobre cómo empezó Linux y cuál es su situación actual. Para muchos de nosotros es difícil comprender cuánto tiempo lleva Linux desarrollándose y estando disponible. Probablemente sea aún más difícil comprender hasta qué punto se ha extendido a tantos aspectos de la informática. La disponibilidad actual de más de 600 distribuciones de Linux demuestra su asombroso éxito.

Es interesante tener en cuenta que Linux empezó incluso antes de que Torvalds se pusiera a trabajar en el núcleo Linux en 1991 (la fecha exacta es difícil de precisar). Gente como Richard M. Stallman se había entusiasmado con el concepto de un «¡Unix Libre!» – tanto si ese «libre» implicaba «sin coste» o «liberación». Linux siguió a sus predecesores Unix (como SunOS) en muchos aspectos, pero con el atractivo carácter de ser de «código abierto» – el carácter que lo hizo disponible a tantos niveles sorprendentes de innovación.

La fundación que hizo posible el núcleo Linux se creó en septiembre de 1983. Richard M. Stallman anunció el Proyecto GNU (que significa «GNU no es Unix»), un nombre que confirmaba la distinción entre Unix y las variedades en evolución de Linux.

Como alguien que empezó a utilizar SunOS (un sistema operativo Unix) al principio de su carrera, la aparición de Linux en la sala de ordenadores de mi empresa sólo unos años más tarde captó inmediatamente mi interés, aunque entonces no tenía ni idea del impacto que este sistema operativo «libre» tendría en la tecnología informática.

¿Qué es el núcleo?

El kernel Linux es el componente principal del sistema operativo Linux. Sirve de interfaz entre el hardware que utiliza Linux y los numerosos procesos que se ejecutan.

Linux Torvalds es un ingeniero de software finlandés-estadounidense que fue el creador y principal desarrollador del núcleo Linux. Acaba de cumplir 55 años. La Fundación para el Software Libre (FSF) celebró el pasado mes de septiembre el 40 aniversario del sistema operativo GNU y el lanzamiento del movimiento del software libre, que tanto ha cambiado el entorno informático.

¿Por qué Linux tiene tanto éxito?

Entre las muchas características de Linux que conducen a su éxito se incluyen:

  • Naturaleza de código abierto: El código fuente de Linux está a disposición de cualquiera, lo que facilita su uso y la colaboración con otros en tareas de desarrollo.

  • Adaptabilidad: Puede adaptarse a diversos tipos de hardware y retos de procesamiento.

  • Estabilidad y fiabilidad: Suele ser la elección para servidores en los que el tiempo de actividad es muy importante.

  • Rendimiento: Está diseñado para ofrecer eficiencia y alto rendimiento.

  • Seguridad: Incluye actualizaciones periódicas y supervisión de la seguridad.

  • Rentabilidad: La mayoría de las distribuciones son gratuitas, mientras que algunas ediciones empresariales conllevan algunos costes por soporte y servicios.

  • Portabilidad: Linux funciona en una gama muy amplia de sistemas, desde dispositivos diminutos hasta los superordenadores más potentes del mundo.

  • Versatilidad y potencia de la línea de comandos: la línea de comandos de Linux sigue proporcionando un control amplio y potente sobre el procesamiento y la gestión del sistema.

Distribuciones

La variedad y el número de distribuciones de Linux cambia cada año, pero Wikipedia ofrece muchos detalles sobre las familias de Linux (por ejemplo, los grupos de distribuciones basadas en Debian, RHEL y Arch). Los miembros de los grupos de distribuciones Linux están muy relacionados entre sí, por lo que estas agrupaciones familiares son bastante significativas. Eche un vistazo a la gama de distribuciones descritas aquí.

Supercomputación

Linux sigue dominando la supercomputación principalmente por lo bien que se puede adaptar a casi cualquier tipo de hardware. Este artículo mío anterior detalla muchas de las razones por las que Linux funciona tan bien en los 500 superordenadores más importantes del mundo: Linux domina la supercomputación

Logros de Linux

Linux domina la computación en nube, constituye la base del Internet de las cosas (IoT) y sigue siendo la base de los contenedores. Además de las importantes funciones que sigue desempeñando en la supercomputación, Linux es responsable de variedades de computación que probablemente nunca habrían llegado de no ser por su código abierto y su naturaleza innovadora.

Fuente: www.somoslibres.org

The Linux Foundation publica su informe del año 2023 con gastos e ingresos

The Linux Foundation, la organización sin ánimo de lucro que fue fundada en el año 2000, inició su andadura con el propósito de canalizar los medios que hicieran el desarrollo del kernel sostenible en el largo plazo. Sin embargo, con el paso del tiempo ha ido evolucionando para apoyar al menos temporalmente a otros proyectos, como OpenSSL y Let’s Encrypt, y actualmente es el paraguas de proyectos, especificaciones e iniciativas como OpenWallet Foundation, Servo, CUPS (a través de OpenPrinting) y Open Container Initiative (OCI).

Dicho con otras palabras, The Linux Foundation es, desde hace años, todo un gigante tecnológico. Su financiación procede en un porcentaje importante de sus propios miembros, de entre los que se encuentran Huawei, Intel, Meta, Microsoft, Oracle, Red Hat, Samsung, Qualcomm, Fujitsu, Ericsson, Hitachi, Tencent y VMware como los que ostentan el nivel platino; Accenture, Alibaba Cloud, Baidu, Cisco, Citrix, Dell, Google, Panasonic, Refinitiv, Rensas, Sony, Toshiba, Toyota y WeBank como miembros de nivel oro; mientras que la cantidad de miembros de nivel plata se cuenta por decenas en la actualidad y entre ellos hay empresas de muchos países.

Si bien la forma de fundación puede dar la impresión de que The Linux Foundation es una institución movida por la benevolencia, en realidad no es tan así si vemos que respaldó a Microsoft cuando esta adquirió GitHub en un movimiento que en su momento no gustó a muchos, pero que en términos absolutos apenas ha afectado al desarrollo de los proyectos si vemos que sigue siendo el principal servicio de almacenamiento de repositorios de código.

Dejando aparte su actividad y la procedencia de una parte importante de sus ingresos, The Linux Foundation ha publicado su informe del año 2023, en el que expone todos los sectores en los que está involucrado, los proyectos que alberga bajo su paraguas y datos relacionados sobre sus ingresos y gastos. Como ya hemos dicho, la fundación ha crecido hasta convertirse en un gigante tecnológico que abarca mucho, así que en esta centrada nos ceñiremos a algunos de los datos más interesantes.

The Linux Foundation ha servido en el año 2023 “a más de 1.133 comunidades de proyectos de código abierto”. Si nos fijamos en el segmento técnico de los proyectos, descubrimos que el kernel Linux y la administración de sistemas solo han acaparado un 2% cada uno, mientras que el 25% de la contribución ha ido para la nube, los contenedores y la virtualización; un 13% a redes y computación en la frontera; un 12% a inteligencia artificial, aprendizaje automático, datos y analíticas; un 11% al desarrollo de la web y aplicaciones; un 8% a tecnologías cruzadas; un 4% a la privacidad y la seguridad; y un 4% al IoT y la computación empotrada.

Si uno se fija en los segmentos, estos concuerdan mucho con los más populares entre las grandes tecnológicas del mundo. Por otro lado y en lo que respecta al tipo de proyecto, el software de código abierto acaparó el 72% y las especificaciones y estándares abiertos el 20%, lo que concuerda con las principales actividades en las que se ha centrado y sigue centrándose la institución.

The Linux Foundation ingresó en el año 2023 un total de 262.615.790 dólares estadounidenses, los cuales, según la explicación proporcionada por la propia institución, “derivan de cuatro fuentes principales: membresías y donaciones, apoyo a proyectos, capacitación y certificaciones, y registro y patrocinio de eventos. En 2023, prevemos unos ingresos de 262,61 millones de dólares. En 2023, la Fundación Linux prevé gastar más de 269,02 millones de dólares para apoyar nuestra misión”.

El 45% de los ingresos de The Linux Foundation en 2023 procedieron de los miembros y las donaciones, el 26% del apoyo de proyectos, el 19% de registros y eventos patrocinados y el 10% de formación y certificaciones.

Por otro lado y como ya ha expuesto la fundación, esta espera haber gastado un total de 269.029.262 dólares en 2023, de los cuales el 64% iría destinado al apoyo a proyectos, el 9% a infraestructura, el 7% a formación y certificación, el 6% a operaciones corporativas, el 6% al apoyo a eventos, el 5% a herramientas comunitarias y solo el 2% para el desarrollo del kernel.

¿Y qué hay del kernel? A pesar de que en números no parece tener un peso excesivo dentro de The Linux Foundation, la institución no se olvida del proyecto por el que es más conocida y que a su vez fue el cimiento de su existencia. Dos años después de celebrar su trigésimo aniversario, el kernel sigue siendo uno de “los tres principales proyectos de código abierto a nivel mundial en términos de velocidad de desarrollo”. Sin embargo, los siguientes párrafos, que hacen referencia a aspectos relacionados con el desarrollo, son realmente interesantes:

“El kernel de Linux permite cargar módulos privativos si cumplen con las reglas y se mantienen dentro de los límites. Sin embargo, la comunidad del kernel no puede depurar ni reparar módulos privativos. Como resultado, no ven el mismo nivel de mejoras en los módulos del kernel. Hay un juego continuo de creadores de módulos privativos que intentan traspasar los límites para encontrar lagunas y desarrolladores de kernel que intentan cerrarlas. Un cambio reciente impide que un módulo privativo obtenga acceso a símbolos exclusivamente bajo GPL a través de un módulo con licencia nominal GPL, obteniendo así acceso a funciones del kernel que están disponibles para módulos que están exclusivamente bajo GPL.”

“Esta nueva restricción cierra este vacío legal. Esta es una de las muchas características y cambios que se realizaron en el kernel este año, incluida la desactivación de la función que inhabilita el entorno de ejecución de SELinux para evitar que los sistemas se vuelvan inseguros de manera accidental y/o intencional”.

Y estos son los datos más importantes para el público general del informe de The Linux Foundation correspondiente al año 2023. Como ya hemos dicho, aquí hay mucha política, muchos proyectos y muchos frentes, y encima la institución está más bien centrada en los sectores que interesan a las grandes tecnológicas del momento. Pero pese a sus sombras, no se puede negar que todo podría ser muchísimo peor para el código abierto.

 

Fuente: www.muylinux.com

 

MhlFileVerify, una aplicación para verificar archivos de vídeo en Linux

Probablemente el sector audiovisual no es el terreno donde más se haya desplegado el uso de Linux, sin embargo, no significa que no tenga presencia y disponga de herramientas avanzadas para una gran variedad de tareas.

En este sentido, MhlFileVerify es una herramienta con un propósito concreto, a veces descuidado: verificar la integridad de los datos registrados por una cámara y sus sucesivas copias.

Desde la adaptación de la industria cinematográfica a los formatos digitales y con la llegada de cámaras de ARRI o RED, el volumen de datos ha crecido de forma exponencial. Y durante los rodajes cinematográficos, los datos que viajan en tarjetas o discos tras cada jornada, son todo el resultado una gran inversión.

Por ello, asegurar la integridad de ese material durante todo el workflow juega un papel indispensable y es aquí donde entran en juego las herramientas de copia y verificación de datos.

Desde hace años existe una implementación de archivo abierto para sistematizar la verificación de copias llamado Media Hash List. MHL es básicamente un archivo xml con información checksum de un conjunto de archivos.

MhlFileVerify fue creada para realizar este proceso de comprobación mediante archivos MHL en Linux de forma gráfica y sencilla.

El proyecto surge como herramienta interna en una productora audiovisual cuyo workflow esta muy ligado a Linux y ahora han publicado su código bajo licencia GPL.

Está desarrollada con Python / QT y se basa en la especificación MHL 1.1 de Mediahashlist.

Las principales características son:

  • Portabilidad para Linux (Appimage) y MacOS (DMG).

  • Tipos de hash admitidos: md5, sha, xxHash y xxHash64.

  • Verificar archivos MHL generados con herramientas como Davinci Resolve, Pomfort Silverstack o Hedge.

  • Generar archivos MHL a partir de un directorio o dispositivo.

  • Facilidad de uso. Drag and Drop de archivos MHL o directorios para analizar.

La aplicación en formato AppImage se ha testado en diferentes distribuciones como Ubuntu, Mint o MX Linux. Para aquellas distribuciones en las que appimage no funcione, también es posible lanzarla directamente desde Python.

Puede ser especialmente útil para DITs / Data Wranglers que precisen una herramienta portable o que prefieran evitar el uso de la línea de comandos a la hora de verificar dailies.

Tanto el proyecto como los binarios se pueden descargar desde Github.

Fuente: www.muylinux.com

 

Métricas Clave y KPI en Ciberseguridad para Empresas

En un mundo cada vez más digitalizado, la ciberseguridad se ha convertido en una prioridad crucial para las empresas. Para evaluar y fortalecer la postura de seguridad, es esencial utilizar métricas clave y KPI (Indicadores Clave de Desempeño).

En este artículo, exploraremos algunas de las métricas más relevantes que las empresas deben seguir para gestionar de manera efectiva su seguridad digital.

1. Tasa de Detección de Amenazas:

  • Definición: Porcentaje de amenazas detectadas con éxito en comparación con el total de amenazas.
  • Importancia: Mide la eficacia de los controles de seguridad y la capacidad de detectar amenazas antes de que causen daño.

2. Tiempo Medio de Detección (MTTD):

  • Definición: El tiempo promedio que tarda una organización en detectar una amenaza desde su inicio.
  • Importancia: Cuanto menor sea el MTTD, más rápido se puede responder a las amenazas, reduciendo el impacto potencial.

3. Tiempo Medio de Respuesta (MTTR):

  • Definición: El tiempo promedio necesario para contener y eliminar una amenaza una vez detectada.
  • Importancia: Un MTTR bajo indica una respuesta rápida y eficiente a las amenazas, minimizando el tiempo de exposición.

4. Porcentaje de Cumplimiento de Políticas de Seguridad:

  • Definición: Proporción de cumplimiento de las políticas de seguridad establecidas.
  • Importancia: Evalúa la conformidad con las políticas internas y regulaciones externas, reduciendo el riesgo de infracciones.

5. Niveles de Acceso No Autorizado:

  • Definición: Frecuencia de intentos o casos de acceso no autorizado.
  • Importancia: Mide la efectividad de los controles de acceso y la resistencia a intrusiones no autorizadas.

6. Niveles de Phishing Exitosos:

  • Definición: Porcentaje de intentos de phishing que los empleados han ejecutado exitosamente.
  • Importancia: Evalúa la conciencia y la preparación de los empleados frente a ataques de phishing.

7. Número de Incidentes de Seguridad:

  • Definición: Cantidad total de incidentes de seguridad reportados.
  • Importancia: Proporciona una visión general de la frecuencia y la diversidad de las amenazas enfrentadas.

8. Eficiencia del Sistema de Gestión de Incidentes (SIEM):

  • Definición: Capacidad del SIEM para detectar, responder y recuperarse de incidentes.
  • Importancia: Mide la capacidad del sistema para gestionar y responder eficazmente a eventos de seguridad.

9. Niveles de Actualización y Parcheo:

  • Definición: Porcentaje de sistemas actualizados y parcheados en comparación con el total.
  • Importancia: Un alto nivel indica una menor superficie de ataque, reduciendo las vulnerabilidades.

10. Evaluación de la Conciencia de Seguridad:

  • Definición: Resultados de evaluaciones de conciencia de seguridad entre los empleados.
  • Importancia: Mide la preparación de los empleados y su comprensión de las mejores prácticas de seguridad.

La ciberseguridad no es solo un desafío técnico, sino también una cuestión de gestión y conciencia organizativa. Al seguir y analizar meticulosamente estas métricas clave y KPI, las empresas pueden mejorar su capacidad para prevenir, detectar y responder a amenazas cibernéticas. Una estrategia de ciberseguridad efectiva se basa en la comprensión y el seguimiento constante de estos indicadores para proteger de manera proactiva los activos digitales y la reputación de la organización.

Fuente: www.somoslibres.org


Deprecated: trim(): Passing null to parameter #1 ($string) of type string is deprecated in /home1/uiolibre/public_html/wp-content/plugins/simple-lightbox/includes/class.utilities.php on line 545