Fedora CoreOS semplifica la gestione dei container su base Linux

Fedora CoreOS semplifica la gestione dei container su base Linux

Fedora CoreOS è una nuova edizione del sistema operativo Linux che punta a semplificare la gestione dei carichi di lavoro basati su container grazie ad aggiornamenti automatici, architettura modulare e disponibilità per le principali piattaforme cloud

di pubblicata il , alle 18:01 nel canale Public Cloud
Red HatLinux
 

Il progetto Fedora e Red Hat, principale sponsor nonché sviluppatore originale della distribuzione, hanno annunciato la disponibilità di Fedora CoreOS, nuova edizione del sistema operativo GNU/Linux pensata specificamente per eseguire carichi di lavoro basati su container minimizzando la manutenzione.

Fedora CoreOS è ora stabile come distribuzione per gestire i container

Fedora CoreOS

Sebbene stiano cominciando a comparire le prime piattaforme per eseguire i container su bare metal, ovvero eliminando quanto più possibile i vari strati tra l'hardware e il software eseguito all'interno dei container, c'è ancora esigenza di sistemi operativi che fungano da host per i container.

Fedora CoreOS svolge proprio questo compito e offre aggiornamenti automatici, supporto per la Open Container Initiative della Linux Foundation, sicurezza tramite SELinux e funzionalità aggiuntive tramite moduli installabili facilmente. Queste caratteristiche rendono Fedora CoreOS una distribuzione Linux ideale perché gli amministratori di sistema possano concentrarsi suli container invece che sull'ambiente in cui vengono eseguiti.

La piattaforma è in sviluppo attivo e viene rilasciata ora per la prima volta come software stabile e pronto per ambienti di produzione, come riporta Phoronix.

Fedora CoreOS può essere eseguito direttamente sull'hardware, ma anche virtualizzato all'interno di server VMware o con QEMU, nonché tramite OpenStack. È anche disponibile in tutte le regioni AWS e sono disponibili immagini per i cloud di Microsoft, Google e Alibaba. Inoltre può essere eseguito anche direttamente in RAM tramite le immagini live.

I piani futuri per il progetto includono la compatibilità con un numero più esteso di piattaforme e architetture di processore oltre a x86_64 (es. POWER) e una integrazione più stretta con distribuzioni di Kubernetes come OKD.

Ulteriori informazioni sul progetto sono disponibili sul sito ufficiale.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Xeon6022 Gennaio 2020, 21:50 #1
Non mi è chiaro cosa sono questi container e a cosa servono...
Pigr822 Gennaio 2020, 23:22 #2
Originariamente inviato da: Xeon60
Non mi è chiaro cosa sono questi container e a cosa servono...


è l'evoluzione naturale delle macchine virtuali, i container fanno la stessa cosa solo a livello di applicazione e non di tutto un sistema operativo.

son passato a docker da parecchio, facendo anche nested e passthrough, davvero semplice come concetto e flessibile
demon7723 Gennaio 2020, 01:06 #3
Originariamente inviato da: Pigr8
è l'evoluzione naturale delle macchine virtuali, i container fanno la stessa cosa solo a livello di applicazione e non di tutto un sistema operativo.


Non ho capito.
Virtualizzare un SO mi consente di avere tanti PC su un solo server e di poter avere "il mio PC" da qualsiasi terminale io mi colleghi in azienda per esempio.
Ed anche a livello di manutenzione è molto vantaggioso per chi gestisce i sistemi fonendo molte comodità ed agevoazioni rispetto all'avere diversi pc singoli sparsi per l'azienda.
Oppure se parliamo di server, un gestore di una server farm può mettere a disposizione su richiesta di una azienda un server virtuale ad hoc come servizio con un tot di potenza a seconda delle necessità dell'azienda stessa. Il tutto pescado dalle enorme potenza del cluster di server fisici che così possono scalare in modo molto efficiente.

Portando tutto questo a livelo di singola applicazione non diventa solo tutto più incasinato e difficile?
Slater9123 Gennaio 2020, 09:17 #4
Originariamente inviato da: demon77
Non ho capito.
Virtualizzare un SO mi consente di avere tanti PC su un solo server e di poter avere "il mio PC" da qualsiasi terminale io mi colleghi in azienda per esempio.
Ed anche a livello di manutenzione è molto vantaggioso per chi gestisce i sistemi fonendo molte comodità ed agevoazioni rispetto all'avere diversi pc singoli sparsi per l'azienda.
Oppure se parliamo di server, un gestore di una server farm può mettere a disposizione su richiesta di una azienda un server virtuale ad hoc come servizio con un tot di potenza a seconda delle necessità dell'azienda stessa. Il tutto pescado dalle enorme potenza del cluster di server fisici che così possono scalare in modo molto efficiente.

Portando tutto questo a livelo di singola applicazione non diventa solo tutto più incasinato e difficile?


Immagina che la tua azienda abbia un sito Web tramite il quale vende dei prodotti. Sai che in un certo periodo dell'anno c'è un grosso picco di richieste per cui il tuo sito Web arranca. Quello che puoi fare con i container è attivare più container che contengono il server Web: il carico viene automaticamente distribuito tra loro e i dati rimangono quelli.
Un altro vantaggio dei container è che sono auto-contenuti, quindi se devi spostare la tua installazione da un server a un altro puoi farlo senza difficoltà (attualmente, ti assicuro per esperienza diretta, è parecchio faticoso...).
Sono solo due esempi molto semplici di cosa aspettarsi dai container. In ogni caso rendono sì più complessa la gestione per certe cose, ma al contempo semplificano molto per altre.
demon7723 Gennaio 2020, 10:27 #5
Originariamente inviato da: Slater91
Immagina che la tua azienda abbia un sito Web tramite il quale vende dei prodotti. Sai che in un certo periodo dell'anno c'è un grosso picco di richieste per cui il tuo sito Web arranca. Quello che puoi fare con i container è attivare più container che contengono il server Web: il carico viene automaticamente distribuito tra loro e i dati rimangono quelli.
Un altro vantaggio dei container è che sono auto-contenuti, quindi se devi spostare la tua installazione da un server a un altro puoi farlo senza difficoltà (attualmente, ti assicuro per esperienza diretta, è parecchio faticoso...).
Sono solo due esempi molto semplici di cosa aspettarsi dai container. In ogni caso rendono sì più complessa la gestione per certe cose, ma al contempo semplificano molto per altre.


Si questo lo capisco, ma scusa non è equivalente al creare un server come virtual machine come si fa adesso?
Anzi da come mi hanno detto con sta cosa del server virtuale on demand tu richiedi un server con tot potenza per il tuo sito, poi quando c'è il mese di carico pesante semplicemente ti fai aggiungere per quel periodo una manciata di CPU e di ram per reggere il carico fin che serve.
Pigr823 Gennaio 2020, 12:20 #6
no, a parte solo per il discorso dell'overhead delle macchine virtuali e dei loro kernel che girano, tirare su 10 istanze di wordpress con docker (perchè vuoi tirare su 10 siti web per dire) è un attimo ed anche la loro manutenzione diventa molto rapido, tirare su 10 linux virtualizzati con tutta la loro configurazione è molto più dispendioso sotto ogni punto di vista.

da quando ho spostato le mie vm (httpserver, plex, ecc ecc) in container docker è tutto estremamente più immediato e gestibile.

prova a dare ad un occhiata a questo https://www.youtube.com/watch?v=TvnZTi_gaNc per capire meglio come funziona docker.
demon7723 Gennaio 2020, 12:26 #7
Originariamente inviato da: Pigr8
no, a parte solo per il discorso dell'overhead delle macchine virtuali e dei loro kernel che girano, tirare su 10 istanze di wordpress con docker (perchè vuoi tirare su 10 siti web per dire) è un attimo ed anche la loro manutenzione diventa molto rapido, tirare su 10 linux virtualizzati con tutta la loro configurazione è molto più dispendioso sotto ogni punto di vista.

da quando ho spostato le mie vm (httpserver, plex, ecc ecc) in container docker è tutto estremamente più immediato e gestibile.

prova a dare ad un occhiata a questo https://www.youtube.com/watch?v=TvnZTi_gaNc per capire meglio come funziona docker.


Ci guardo, ma premetto che non sono un addetto ai lavori, quindi chiaramente non ho idea di un sacco di aspetti che tu conosci molto da vicino.
WarDuck23 Gennaio 2020, 14:56 #8
Originariamente inviato da: demon77
Si questo lo capisco, ma scusa non è equivalente al creare un server come virtual machine come si fa adesso?
Anzi da come mi hanno detto con sta cosa del server virtuale on demand tu richiedi un server con tot potenza per il tuo sito, poi quando c'è il mese di carico pesante semplicemente ti fai aggiungere per quel periodo una manciata di CPU e di ram per reggere il carico fin che serve.


Le Virtual Machine, come dice la traduzione stessa sono appunto delle macchine vere e proprie virtualizzate: ovvero virtualizzi hardware, bios, sistema operativo e così via...

Per capirci è quello che fa VirtualBox, se l'hai mai usato.

Nella virtualizzazione a container invece ad essere virtualizzato è solo l'ambiente operativo dell'applicazione. Il kernel del sistema operativo è uguale per tutti, e si sfruttano alcune sue caratteristiche di isolamento dei processi per impedire alle applicazioni di pestarsi i piedi.

In Linux questo è fatto attraverso il concetto di Namespace.

In pratica ad essere virtualizzato è il file system, lo spazio dei PID dei processi, i dispositivi di rete, lo spazio degli utenti e così via. Ad esempio adesso hanno proposto di introdurre un namespace temporale per cui container diversi possono avere una visione dell'orologio di sistema diversa.

Chiaramente una virtualizzazione di questo tipo è molto leggera se confrontata con altri metodi di virtualizzazione, e per altro non richiede neanche supporto hardware dedicato.

Semplicemente è il SO che ti dà una visione delle risorse diversa . Semplice ed efficace.

PS: date le capacità di isolamento, non mi stupirei se un giorno tutti i processi venissero isolati da tutto _by default_ e si passasse ad un modello in cui lo sviluppatore dell'applicazione dovesse dichiarare con cosa e chi comunica l'applicazione.

Un po' come avviene con la gestione dei permessi di Android.
s-y23 Gennaio 2020, 15:12 #9
penso sia un'evoluzione possibile
tuttavia man mano che passa il tempo ammetto che faccio sempre più fatica a riconoscere il pinguino, rispetto a quello (per brevità dove tutto era un file

nessuna lamentela, una riflessione personale (mentre sto a tempo perso sperimentatndo freebsd, e quasi ci siamo, almeno per cosa devo farci)
Pigr823 Gennaio 2020, 16:14 #10
Originariamente inviato da: s-y
penso sia un'evoluzione possibile
tuttavia man mano che passa il tempo ammetto che faccio sempre più fatica a riconoscere il pinguino, rispetto a quello (per brevità dove tutto era un file

nessuna lamentela, una riflessione personale (mentre sto a tempo perso sperimentatndo freebsd, e quasi ci siamo, almeno per cosa devo farci)


bah io mi trovo benone con Alpine, minimalissimo e ottimo per le mie necessità

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^