Archives diciembre 2017

Cómo matar un proceso en Gnu/Linux

comandos-linux-kill-command-signal-pid-proccess-proceso-matar-procesos

Una de las tareas que más conoce el usuario de Windows es terminar un proceso o cerrar una aplicación de manera inesperada. Este tipo de operaciones son habituales en sistemas Windows, pero por desgracia, no son exclusivos del sistema operativo: también existe en Gnu/Linux.

Pero, incluso en Gnu/Linux, la manera de actuar ante estos problemas son más eficaces que en sistemas operativos privativos. En Gnu/Linux existen tres comandos cuyo fin es matar un proceso o terminar con una aplicación, se llaman Kill, PKill y Killall.

Pero antes de utilizarlos, primero hemos de conocer o saber el PID del proceso. El PID es un número de identificación del proceso. Es único y no lo tienen más de un solo proceso, funciona como si fuera el DNI o número de pasaporte de una persona, es algo único e irrepetible en ese momento.

Conocer el PID de un proceso es sencillo, lo podemos saber escribiendo en la terminal el comando “htop” o directamente escribir “ps -A” en la terminal.

En cualquier caso nos mostrará todos los procesos, los programas que utilizan y el PID de cada proceso. Ahora, para matar un proceso hemos de escribir lo siguiente:

1
kill -9 PID

En lugar de PID utilizaremos el código del proceso. La variable “-9” indica que queremos matar el proceso. Si lo cambiamos por “-15”, indicamos que queremos que el proceso termine y si usamos “-1” lo suspendemos.

Kill es un comando que nos ayuda a matar un proceso pero solo funcionará sobre los procesos que hemos creado como usuario, no podremos matar procesos de otros usuarios ni tampoco de sistema.

El comando Pkill es similar a Kill. Pero a diferencia del anterior, PKill nos permite matar el proceso o el programa mediante el nombre, es decir, no necesitamos utilizar el PID del programa. Un ejemplo de uso sería:

1
PKill mysql

El comando Killall es más potente y efectivo que los comandos anteriores pero también es más peligroso. Killall no solo mata el proceso sino también el programa o función, matando todos los procesos que dependen de ese programa. Un ejemplo de uso de Killall es

1
killall firefox

Conclusión

Para matar un proceso sirve cualquier comando de los anteriores pero no todos se adaptarán perfectamente a nuestra situación. Dependiendo de nuestra necesidad o de nuestro problema hemos de usar Kill, PKill o Killall. Personalmente recomiendo utilizar PKill, por ser más sencillo y rápido. Aunque si tenemos un problema grave, el comando Killall puede ser de gran utilidad.

Fuente: www.linuxadictos.com

La Neutralidad en la Red, herida de muerte en EE.UU.

La Comisión Federal de Comunicaciones de Estados Unidos (FCC) acaba de votar con un 3 a 2 acabar con las normas que protegen la neutralidad de la red, y que permiten que todos los servicios compitan en igualdad de condiciones. Se trata de la puesta en marcha de un plan presentado por Ajit Pai, presidente del organismo.

neutrality_dead_noticia_fotograma

Esta decisión hará que Estados Unidos de un importante paso atrás en materia de libertades de la red. Y de paso normalizarán una situación que podría dar pie a que en otros sitios como Europa las cosas también empezasen a cambiar, y al final todos los usuarios suframos las consecuencias de esta decisión.

Un paso para adelante, dos para atrás

Hace tres años la situación era bastante parecida en Estados Unidos, y en mayo del 2014 la FCC había votado a favor de seguir con un plan para crear un Internet de dos velocidades. El futuro de la neutralidad pintaba muy oscuro, pero todo acabó dando un giro de 180 grados al surgir otra propuesta totalmente opuesta que acabó imponiéndose en 2015.

Con ella se estableció que Internet pasase un servicio básico como la electricidad y el agua, y obligaba a los operadoras a garantizar un acceso igualitario. Se trató por lo tanto de una legislación atrevida que llegó cuando menos se esperaba, y que supuso un ejemplo a seguir para el resto de países. De hecho, algunos países europeos ya se habían posicionado a favor del Internet de dos velocidades, y finalmente la Unión Europea también acabó legislando para proteger la neutralidad.

Pero la normativa europea no es lo suficientemente rotunda, y deja la puerta abierta a que cada país tenga el poder de decidir sobre el zero-rating. Eso ha provocado que operadoras como Orange, Vodafone o FreedomPop hayan sacado tarifas en las que el tráfico de determinadas aplicaciones tiene más privilegios que el de otras.

Estados Unidos seguía siendo por lo tanto el espejo en el que mirarse, un referente. Aunque todo empezó a cambiar este año con la aparición de Ajit Pai, que desde su puesto de la presidencia de la FCC decidió dar marcha atrás y cargarse la neutralidad. Con ello las operadoras podrán decidir qué aplicaciones tienen más privilegios que otras.

Organizaciones de usuarios, empresas, e incluso algunos miembros de la FCC se han posicionado en contra de esta situación, pero el organismo no ha dudado en utilizar botnets para aparentar un falso apoyo. Por si fuera poco, el propio Ajit Pai ha publicado un vídeo burlándose de la neutralidad de la red para desinformar a los usuarios tratando de hacerles creer que nada va a cambiar.

Qué cambia con la ley aprobada hoy

Pero las cosas sí van a cambiar. Para empezar, los primeros perjudicados por la aniquilación de la neutralidad en Estados Unidos serán los propios usuarios estadounidenses. Hoy Internet deja de ser considerado un servicio básico como la electricidad y el agua, y deja de garantizarse un acceso igualitario como se estaba haciendo desde que se aprobaron las últimas normas.

Esto pone en manos de las operadoras el poder hacer prácticamente lo que quieran. Pueden bloquear el acceso a determinados servicios, acelerar la velocidad a la que se accede a otros, o incluso priorizar el contenido que quieran. La única condición que tienen que cumplir es hacer públicos estos cambios.

Así será más difícil que los servicios de terceros puedan competir en igualdad de condiciones. También abre la puerta a que las propias operadoras puedan utilizar este poder para priorizar sus propios servicios penalizando otras aplicaciones sin que ni estas ni los usuarios puedan impedirlo.¡

Esto a la larga podrá acabar provocando que los propios servicios tengan que negociar con las operadoras para que sus usuarios puedan acceder correctamente a ellos, lo que hará que los que no tengan los suficientes recursos queden desterrados del Internet de alta velocidad y vean lastrada su adopción y su futuro.

Así nos afecta a los demás

union_europea

En Europa tenemos nuestras propias leyes y lógicamente no se aplican directamente las de EEUU. Sin embargo, muchos de los servicios que utilizamos son de Estados Unidos o tienen gran parte de sus usuarios allí, desde Facebook hasta la propia Google pasando por muchos otros servicios de menor potencia. Por eso, lo que hagan las operadoras en aquel país puede perjudicarles y repercutir en cómo funcionan a nivel técnico o económico en todo el mundo.

También hay que tener en cuenta que las nuevas normas dañan la competencia entre servicios. Con las operadoras al poder, muchos servicios tendrán que negociar para conseguir funcionar correctamente para muchos usuarios. Esto perjudicará posiblemente a todos los que empiezan o ya compiten contra los más grandes. Y al final esto hace que todos tengamos menos libertad de elección independientemente de si somos de EE.UU. o de fuera.

El que los servicios tengan que negociar con las operadoras para obtener un trato favorable también constituye otro problema para todos. Muchos servicios no querrán perder dinero, por lo que al final lo que ellos tengan que pagarles a las operadoras lo acabaremos pagando también todos los consumidores.

Y esperemos que las operadoras europeas y la UE no tomen ahora nota y quieran imitar a sus homólogos estadounidenses. Porque ese es otro de los peligros de la decisión que se ha tomado hoy allí, que haga que otros países en todo el mundo acaben cediendo a las presiones del lobby de las operadoras y tomando decisiones parecidas.

Fuente: www.linux-party.com

Facebook, Google, IBM y Red Hat se alían para amparar el uso de licencias de código abierto

oss

Cuatro gigantes de la tecnología actual, FacebookGoogleIBM y Red Hat, anuncian esfuerzos para “promover una mayor previsibilidad en licencias de código abierto”, comprometiéndose a extender derechos adicionales para corregir aquellos errores de forma y de cumplimiento de licencia que se puedan cometer.

Tal y como lo explican en la nota de prensa publicada ayer por Red Hat, esta iniciativa se enfoca en proveer de amparo a los usuarios -entendiendo por usuarios a cualquier objeto jurídico, léase profesionales y empresas- que hacen uso de software bajo licencias como GNU General Public License (GPLv2) o GNU Lesser General Public License (LGPL versiones 2 y 2.1), dos de las más utilizadas actualmente. Lo harán de acuerdo a cómo se aplica la GPLv3. 

Cuando se lanzó GPL versión 3 (GPLv3), introdujo un enfoque de terminación expresa que ofrecía a los usuarios la oportunidad de corregir errores en el cumplimiento de la licencia. Esta política de terminación en GPLv3 proporcionó un enfoque más razonable a errores que a menudo son involuntarios.

Para proporcionar una mayor previsibilidad a los usuarios de software de código abierto, Red Hat, Facebook, Google e IBM se comprometen hoy a extender el enfoque GPLv3 para los errores de cumplimiento en el código de software bajo licencias GPLv2 y LGPLv2.1 y v2.

En la nota de prensa se dan todos los detalles de este “compromiso con los derechos comunes” auspiciado por las tecnológicas, si bien persiste una duda: ¿por qué no incentivar la adopción de la GPLv3 en lo posible y solo hacerlo de esta manera tan sui géneris y en términos tan concretos? La reticencia del gran parte del ecosistema del Open Source a esta última versión de la licencia es un hecho que en su día resumió con rotundidad el mismo Linus Torvalds:

Mi argumento para gustarme la versión 2 (y sigo pensando que es una gran licencia) era que yo te doy código fuente, tú me devuelves los cambios y estamos en paz, ¿verdad? Esa es mi posición con respecto a la GPLv2. Así de simple.

La versión 3 extiende eso de formas con las que personalmente estoy realmente incomodo. Por ejemplo si yo te doy código fuente eso significa que no puedes usarlo en tu dispositivo a menos que sigas mis reglas. Y para mi eso es una violación de todo lo que la versión 2 representa. Y entiendo por qué lo hizo la FSF, porque sé lo que quiere la FSF, pero para mi no es la misma licencia para nada.

La cita recoge la esencia de la postura de Torvalds, cuya respuesta al completo se puede ver en este vídeo. No es una respuesta exhaustiva y pertenece a una conferencia realizada muchos años después de que la GPLv3 fuese publicada, pero sirve de muestra a pesar de que no menciona otras limitaciones que se suelen achacar a la misma, por ejemplo con las incompatibilidades entre licencias. Se trata de una opinión que, eso sí, cuenta y mucho porque Linux es el proyecto de software libre más importante de la actualidad.

Fuente: www.muylinux.com

Clonación de discos usando comandos dd y cat para sistemas GNU/Linux

Siempre es prudente que un administrador del sistema esté preparado para la peor situación y tenga una copia de seguridad/clones de servidores, cuando llegue ese día, sin duda hará que tu trabajo y su vida sean más fáciles. Aunque hay varias opciones entre las que elegir para crear clones de tus unidades de discos como ClonezillaRedo backupMondo Rescue, etc., pero aquí, en esta publicación, no hablaremos de las herramientas de terceros, pero utilizaremos el comando dd y catpara completar la clonación discos de los sistemas Linux.

Comando dd

El comando dd es una buena herramienta de Linux para clonar discos y está disponible en casi todas las distribuciones de Linux. Pero ten cuidado, con un pequeño error puedes terminar destruyendo tu partición, así que asegúrate de verificar dos veces antes de ejecutar el comando.

Por lo tanto, la sintaxis utilizada para clonar una partición o unidad completa es:

$ dd if=/dev/sda1 of=/dev/sdb1

1-3

comando

if es la unidad de entrada, desde donde se van a clonar los archivos, es decir, /dev/sda1

of es la unidad de salida a la que se clonan los archivos, es decir, /dev/sdb1

Es simple, pero de nuevo te advierto que uses la sintaxis correctamente, ya que también puede eliminar tu disco duro.

Comando CAT

El comando cat tiene una serie de funciones, es decir, se puede usar para crear archivos, puedse usarlo para leer archivos o también puedes combinar 2 archivos, pero también se puede usar para clonar/respaldar un disco completo.Aunque dd es un gran comando que tiene una serie de opciones, pero el comando cat es mejor cuando se trata de velocidad y rendimiento.

Sintaxis para el comando cat: –

$ cat /dev/sda1 > /dev/sdb1

Donde cat es el comando,

/dev/sda1 , es la unidad de entrada,

y, /dev/sdb1 es la unidad de salida.

2-5

Ambos comandos pueden realizar la tarea, es decir, realizar copias de seguridad / clonar unidades completas. Es hasta tu preferencia personal cuál elegir. En mis futuras publicaciones trataré de analizar algunas otras soluciones de copia de seguridad / clonación.

Fuente: http://maslinux.es

LineageOS: un Android más abierto que da más poder al usuario

lineageos

Nunca he sido un gran entusiasta de los smartphones, cosa que muchas veces choca a las personas de mi entorno debido a mi gran pasión por el PC (sobre todo por el software). Por eso posiblemente sigo usando en diciembre de 2017 un Moto G de primera generación y soy muy reacio a invertir dinero en un nuevo dispositivo, por lo que hago todo lo posible para que siga funcionando.

El Moto G de primera generación fue posiblemente el smartphone con mejor relación calidad-precio, aunque de eso hace ya cuatro años. Durante los primeros meses la experiencia fue bastante buena, con un Android bastante limpio que se veía además razonablemente optimizado en su versión KitKat. Esa combinación de factores convirtieron al Moto G en una buena compra y en un dispositivo ideal para todo aquel que solo quisiera hacer llamadas y enviar mensajes. Nada pretencioso.

Sin embargo, todo cambió cuando Android Lollipop aterrizó a modo de actualización OTA. Aquella versión del sistema operativo de Google tenía problemas de fugas de memoria que terminaban siendo realmente molestos, tanto, que muchas veces hacían que el smartphone fuese imposible de utilizar. Por eso, con bastante retraso (por lo que me convenía), decidí hace dos meses instalar LineageOS, la ROM de Android heredera de CyanogenMod.

LineageOS se basa en AOSP y se distribuye principalmente bajo Licencia Apache 2.0, que hereda del proyecto original. Pero a mi no importaba tanto el hecho de que fuera Open Source como dos aspectos que estaba acusando cada vez más. Primero, los problemas de rendimiento que siempre he experimentado en Lollipop. Segundo, no poder recibir actualizaciones a nivel de seguridad para un sistema que cada vez se muestra más acosado por el malware y la explotación de vulnerabilidades.

Pantalla-principal-de-LineageOS Aplicaciones-en-LineageOS

La imagen de LineageOS para el Moto G de primera generación fue introducida utilizando adb y fastboot desde Ubuntu 17.10. La cosa costó más de lo esperado por mi falta de experiencia realizando este proceso, aunque al final conseguí introducir el sistema con éxito y di el salto a Android 7.1.2 (Nougat), quedándome cerca del lanzamiento más reciente de este sistema operativo, Oreo. Eso sí, tras eso tocó instalar parte del stack de Google para poder acceder a la Play Store y así obtener las aplicaciones de la misma forma en que siempre lo había hecho.

¿Que ha aportado LineageOS frente a Android Lollipop? Lo primero que notamos fue una fluidez muy superior. Sí, parecía que los problemas de rendimiento se habían ido en buena medida, aunque con un terminal tan viejo tampoco era de esperarse la optimización y fluidez de un iPhone. Segundo, vimos que el sistema se actualiza con frecuencia, cosa que nos tranquiliza mucho en términos de seguridad. Tercero, nos encontramos con un sistema un poco más abierto que nos permite tener solo las aplicaciones que nos interesan, sin tener que cargar con cosas innecesarias como Gmail y Chrome. Y por último, nos sorprendió ver que la calidad de las fotografías había subido un poco frente a Lollipop (o eso percibo).

Mi escaso entusiasmo por los smartphones viene sobre todo por la poca libertad que ofrecen comparada con la de un PC, sin duda la característica que más aprecio tanto de los compatibles como de GNU/Linux. Por su parte, LineageOS ofrece un poco de esa libertad que tanto apreciamos, por lo que a partir de ahora procuraremos comprar solo terminales que sean compatibles con esta ROM de Android, ya que pasada la garantía podré tener más libertad, más seguridad y más poder sobre el smartphone.

LineageOS es una excelente alternativa para aquellos que no quieran renovar su smartphone al ritmo que dicten los fabricantes y busquen tener algo más de control y poder sobre el dispositivo. Además, está razonablemente optimizado, por lo que se puede recomendar su instalación incluso en dispositivos antiguos y modestos en caso de tener compatibilidad de forma oficial.

Fuente: www.muylinux.com

Disponible TeamViewer 13, por fin con soporte nativo para Linux

TeamViewer anunció la semana pasada la disponibilidad en una nueva versión preview de su conocida aplicación de acceso remoto para Linux, la cual por fin tiene soporte nativo para 64-bit (no usando dependencias de 32-bit) y está construida con Qt, por lo que ya no depende más de Wine.

TeamViewer

Según cuenta la misma empresa, el aumento en la cantidad de usuarios de GNU/Linux y las limitaciones técnicas fueron los motivos del cambio de Wine por una tecnología más “nativa” como Qt, dando como resultado el actual TeamViewer 13 preview para GNU/Linux. Por otro lado, se mantiene el soporte multidistribución que siempre ha ofrecido, habiendo paquetes en formato Deb, RPM y tar.xz. El soporte inicial para Wayland es otra de las características a destacar de las relacionadas con nuestro sistema operativo favorito, aunque de momento es mejor utilizarlo con Xorg.

En lo que respecta a las características de TeamViewer 13, independientemente de la plataforma, se pueden destacar la posibilidad de compartir la pantalla de iOS con soporte remoto; mejores capacidades a la hora de transferir ficheros; soporte remoto más rápido gracias a nuevas características como Conexión Instantánea, Conexiones Recientes, Gestión de Activos Esenciales y el panel de control de dispositivos extendido; y la Escala Acelerada de Hardware, que reduce la carga del sistema al realizar un mejor uso combinado de la CPU y la GPU. Por su parte, la Gestión de Identidad y Acceso y la grabación forzosa de sesiones dan una solución a las mayores necesidades de las empresas a nivel de funcionalidades.

Aunque TeamViewer es software privativo, se trata posiblemente de la solución más conocida y usada dentro de su segmento: el acceso remoto a nivel de escritorio. Los particulares pueden hacer uso de ella forma gratuita, mientras que es de pago para las empresas.

Fuente: www.muylinux.com

La Universitat de València apuesta por SUSE Enterprise Storage

Universitat-de-València

La Universitat de València (España) ha decidido apostar por SUSE Enterprise Storage como uno de los elementos básicos que sostienen los servicios que ofrecen tanto parar sus estudiantes como para su propio personal. Israel Ribot, ingeniero de sistemas de la Universidad, ha comentado que “para ofrecer servicios digitales a nuestros estudiantes y personal se espera que estos sean confiables y oportunos, necesitamos ser más rápidos y ágiles. Nuestros antiguos sistemas de almacenamiento no se adecuaban a la hora de conseguir ese objetivo”.

Cuenta SUSE a través de su blog corporativo que en la Universitat de València se quedaron impresionados con Ceph, “una solución Open Source que ofrece un bloque unificado extremadamente escalable, además de almacenamiento de ficheros y objetos en hardware básico”. Sin embargo, este cada vez más popular sistema de archivos para la nube necesita estar acompañado de algún sistema operativo y el elegido fue SUSE Enterprise Storage, debido a que “suaviza la implementación y la gestión de esta nueva tecnología”, ofrece soporte de nivel corporativo y resulta ser “una solución de almacenamiento definida por software con tecnología de Ceph.”

En resumidas cuentas, SUSE Enterprise Storage ha dado a la Universitat de València un clúster definido por software que ofrece aplicaciones con un bloque de almacenamiento unificado, el cual resulta ser muy escalable. Ribot destaca su facilidad a la hora de ser implementado, su flexibilidad y su eficiencia a nivel económico a la hora de gestionar “200 máquinas virtuales y manejar 50 terabytes de datos” que se encuentran almacenados en su centro de datos principal.

Explica Ribot que la instalación de 30 máquinas virtuales con NFS tomaba 2,4 veces más tiempo que la instalación de una única máquina virtual, mientras que SUSE Enterprise Storage se ha conseguido reducir ese tiempo a 1,5 veces. Además, el sistema de la empresa alemana mantiene un buen rendimiento a medida que se escala en el número de máquinas virtuales, mientras que NFS mostró un empeoramiento en este aspecto. Se hace asimismo hincapié en el ahorro económico que ha supuesto este movimiento en cuanto a inversión en almacenamiento, lo que permitirá “invertir más presupuesto en nuevos proyectos y servicios que atraigan a una mayor cantidad de estudiantes, ayudando así a superar a la competencia”, según palabras de Ribot.

La Universitat de València, fundada en 1499, cuenta actualmente con unos 50.000 estudiantes y un personal compuesto por unos 6.000 miembros, por lo que tener unos servicios informáticos bien soportados puede terminar siendo crítico para el correcto funcionamiento de la institución.

Fuente: www.muylinux.com

VLC se lleva la primera recompensa de la Comisión Europea

La Comisión Europea ha puesto en marcha su primer programa de recompensa por errores, una iniciativa que en inglés se denomina bug bounty y que se resume en recompensar económicamente a quien localice y reporte errores, por lo general de seguridad, con respecto a algún software concreto. Y el elegido para arrancar no es otro que VLC.

vlc-ce

Por lo que cuentan en Joinup, en la primera fase del programa “se invitará a participar a hackers con experiencia previa en la plataforma HackerOne” para más tarde, al cabo de unas tres semanas, abrir la participación a cualquier interesado. En relación a las recompensas se habla de entre 100 y 3.000 euros “en función de la gravedad y el impacto” del hallazgo, indican desde HackerOne, mientras que la duración del programa se estima “hasta las primeras semanas de enero o hasta que el presupuesto para recompensas se agote”.

La Comisión Europea dispone de un presupuesto anual de 2 millones de euros para el proyecto de Auditoría de software libre y de código abierto de la UE (EU-Fossa) en el que se engloba esta iniciativa, pero no se dan más detalles. No obstante, no es el primer proyecto que ponen en marcha, aunque sí es el primero con el formato de recompensa. En esencia, eso sí, el objetivo es el mismo: auditar y mejorar la seguridad del software libre que se utiliza en las instituciones de la Unión Europea.

Ahora bien, ¿por qué VLC? ¿Acaso un reproductor multimedia es software crítico? Lo es, cuando está incluido en todas las estaciones de trabajo de la Comisión Europea. El órgano ejecutivo de la UE renovó su estrategia Open Source hace un par de años y a pesar de estar aún muy lejos de lo deseable, la implantación de soluciones de código abierto es cada vez mayor. Se podría decir que están siendo mínimamente consecuentes y poniendo dinero sobre la mesa.

En cuanto a VLC, no necesita presentación. Es posiblemente el reproductor de vídeo y audio más conocido del mundo, aunque lo cierto es que es mucho más que eso. Es una solución multimedia y multiplataforma muy completa y cien por cien software libre que desde hace más de 20 años está gestionada por el proyecto de origen francés VideoLAN. A mediados de este año cubrimos uno de sus últimos lanzamientos, pero lo que muchos de sus usuarios esperan es la nueva versión mayor, VLC 3.0, a la que tan bien le va a venir esta historia.

Fuente: www.muylinux.com

2018 podría ser el año del Linux “reproducible”

Ya estamos en diciembre y en breve empezaremos a ver qué ha dado de sí este año en materia de Linux y Open Source, así como a prever a qué habrá que atenerse el año que viene. En los mismos términos, GNU/Linux y software libre, además de seguridad, una de las noticias más importantes que os podamos dar en 2018 es la completación de los sistemas reproducibles, una iniciativa que lleva en marcha varios años y que está cerca de culminar con Debian como punta de lanza.

sin_linux

Toda esta historia de los sistemas o compilaciones reproducibles es una de las consecuencias de aquel verano de 2013 (Edward Snowden, PRISM) que a tanta gente abrió los ojos. Desde entonces hablamos de privacidad y sabemos que nuestros datos en Internet están al alcance de empresas, gobiernos y en el peor de los casos cibercriminales. Y sabiéndolo, hay a quien le importa y a quien no, o a quien importándole se resigna por lo extremadamente difícil que es no pasar por el aro.

El escándalo de PRISM y derivados sirvieron también para subrayar lo que siempre había estado claro: solo el software libre puede garantizar una privacidad plena, y no hace falta que lo diga ningún profeta. Es discutible si abrir el código es beneficioso o perjudicial por aquello de a más ojos, más posibilidades de encontrar vulnerabilidades o detectar puertas traseras… para bien o para mal. Pero que solo el software libre ofrece transparencia total es un hecho por su definición misma.

Ahora bien, ¿qué hacer cuando no te puedes fiar ni del software libre? Porque uno no va por la vida revisando todo el código fuente de todo el software que utiliza, antes de compilarlo. Lo más normal, incluso a este lado franco de la computación que es GNU/Linux y sus distribuciones más libres, es usar sistemas a base de precompilados, que en un momento dado pueden verse comprometidos.

Así es como entran en juego las ‘compilaciones reproducibles’, que tal y como se indica permitirán al usuario reproducir el proceso de compilación de todos los paquetes a partir de su código fuente, de manera que pueda detectar si existen alteraciones. Hace tiempo que diferentes proyectos de software libre centrados en la seguridad y la privacidad utilizan este modelo, pero en lo que se refiere a las grandes distribuciones GNU/Linux, aún está por anunciarse que lo han logrado.

A la cabeza de los reproducible buils está Debian, con un 93,3% de paquetes listos. Cuánto tardarán hasta cubrir todos sus repositorios no se sabe, porque mantienen una inmesidad de software; pero es previsible que sean los primeros en ofrecer esta característica. ¿Serán los únicos? No. Desde Arch Linux reportan avances y otras distribuciones de uso general interesadas en adoptar el modelo reproducible son Fedora y openSUSE. Pero nada de todo esto va a pasar mañana, por lo que solo queda esperar a ver si en 2018 lo consigue al menos “el sistema operativo universal”.

“Las compilaciones reproducibles deberían ser la norma“, decía con razón indiscutible unos de los desarrolladores de Debian. No porque sean la panacea, que no lo son, sino porque es lo más correcto e inteligente. Así solo hay que poner el ojo en el código fuente, a ser posible, para bien. Sin prejuicios ni conspiraciones que valgan.

Fuente: www.muylinux.com

El fin de la BIOS: Intel la eliminará en 2020

En la era de los smartphones, tablets y MacBooks parece que BIOS (Basic Input/Output System) es algo que forma parte de un pasado muy lejano. Me pregunto cúantas veces he tenido que ser rápido pulsando F2, F10 o Supr para entrar en su menú mientras se iniciaba el equipo.

El fin de este sistema está cada vez más cerca, ya que Intel ha anunciado que acabará con su soporte en el año 2020. Es un movimiento completamente lógico, ya que desde el 2010 las placas base vienen con UEFI, una solución mucho más segura y moderna.

bios_uefiGracias a este pequeño programa tenemos acceso a un inventario del hardware conectado al ordenador, efectuando un diagnóstico llamado POST (prueba automática en el encendido) y comprobando que nuestro equipo funciona correctamente.

A partir del año 2020, Intel tiene previsto soportar versiones UEFI Class 3 y posteriores. Esto no debería ser un grave problema, ya que actualmente no debe de haber muchos equipos funcionando con BIOS. Es un paso adelante en cuanto a seguridad, y reducirá la cantidad de validación por parte de los proveedores.

Fuente: www.linux-party.com


Deprecated: trim(): Passing null to parameter #1 ($string) of type string is deprecated in /home1/uiolibre/public_html/wp-content/plugins/simple-lightbox/includes/class.utilities.php on line 545