Autor Thema: Proxmox / ArchivistaBox  (Gelesen 1990 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox / ArchivistaBox
« am: 03 Dezember, 2010, 20:53 »
Mit der ArchivistaBox 64 Bit steht eine quelloffene Virtualisierungsplattform mit KVM zur Verfügung, die nach Angaben der Entwickler auf jedem handelsüblichen Rechner in wenigen Minuten aufgesetzt werden kann.

Kernstück der Veröffentlichung bildet der neue Installer, der direkt im RAM abläuft und die Software in extrem kurzer Zeit aufspielt. Das System wurde bereits vor kurzem auf dem LinuxDay in Dornbirn vorgestellt, wo es in ca. 40 Sekunden auf einem Testrechner aufgespielt werden konnte. Das Vortragsskript (PDF) dazu ist verfügbar.

Die ArchivistaBox 64 Bit enthält neu die die Virtualisierungsplattform ArchivistaVM. Das Projekt ArchivistaVM wurde vor ca. 15 Monaten als Fork zum bekannten Projekt Proxmox gestartet. Im Unterschied zu Proxmox konzentriert sich die ArchivistaBox auf Server-Virtualisierung mit KVM.

Die ArchivistaBox ist leicht zu installieren und aktuell zu halten. Sie kann von CD oder USB-Stick installiert werden. Spätere Updates benötigen kein Voll-Backup, da die virtualisierten Instanzen anders als bei Proxmox nicht überschrieben werden.

Die virtualisierten Instanzen können über einen Web-Browser oder über eine grafische Oberfläche verwaltet werden. Letztere ist über einen X-Server mit dem Window-Manager Fluxbox realisiert, der auf dem Server läuft.

Der neuen Version wurde ein aktueller Linux-Kernel 2.6.35.9 spendiert, in dem alle Netzwerktreiber einschließlich derer aus dem Staging-Bereich verfügbar sind. Darunter sind bereits viele optische Karten, für die es erst seit kurzer Zeit Treiber für Linux gibt.

Die ISO-Datei von ArchivistaVM Bit umfasst derzeit ca. 320 MB und steht unter der GPL frei zur Verfügung. Die größere ArchivistaBox 64 Bit passt mit 700 MB ebenfalls noch auf eine CD. Für Fragen zu den Produkten steht ein Support-Forum zur Verfügung.

Quelle : www.pro-linux.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox Virtual Environment 3.1 erschienen
« Antwort #1 am: 22 August, 2013, 14:06 »
Die Virtualisierungs-Plattform Proxmox VE wurde in Version 3.1 veröffentlicht. Neu in dieser Version sind unter anderem das SPICE-Protokoll, ein GlusterFS-Plugin und ein Unternehmens-Repositorium.

Proxmox Virtual Environment (Proxmox VE) ist eine freie Virtualisierungsplattform, die die Linux-Hypervisor-Technologie KVM und die virtuelle Container-Technologie OpenVZ miteinander kombiniert und die Bildung von hochverfügbaren Clustern ermöglicht. Proxmox VE ist unter der GNU Affero General Public License 3 (AGPL v3) lizenziert und wird maßgeblich von der Wiener Proxmox Server Solutions GmbH entwickelt.

Proxmox VE 3.1 enthält einige wesentliche Neuerungen gegenüber der vor knapp drei Monaten erschienenen Version 3.0. Eine davon ist das Unternehmens-Repositorium. Gab es bisher nur ein Repositorium für Software-Updates, das für alle Benutzer mit oder ohne Support-Abonnement gleichermaßen zugänglich war, so wurde dieses jetzt in zwei separate Repositorien aufgeteilt. Standardmäßig ist das Unternehmens-Repositorium eingestellt, das aber Benutzern mit Support-Verträgen vorbehalten bleibt. Wer Proxmox VE ohne Support nutzen will, kann das zweite Repositorium für Updates nutzen, dessen Pakete aber laut Hersteller nicht so intensiv getestet werden.

Der ganze Artikel

Quelle : www.pro-linux.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox VE 3.4 mit ZFS
« Antwort #2 am: 21 Februar, 2015, 10:10 »
Proxmox Server Solutions GmbH hat die Version 3.4 seiner Open-Source Servervirtualisierungslösung Proxmox Virtual Environment (VE) zum Download freigegeben. Herausragende Neuerungen sind das integrierte ZFS-Dateisystem, ein ZFS Storage Plug-in und Hotplug. Die neue Version basiert auf dem aktuellen Debian Wheezy 7.8.

Proxmox VE (Virtual Environment) 3.4 integriert das ZFS-Filesystem (OpenZFS), das unter anderem Dateisystem- und Logical Volume Manager-Funktionalität kombiniert. Der Installer des Systems erlaubt zudem ZFS, ext3 und ext4 als Root-Filesystem bereits während der Installation auswählen. Bei ZFS werden alle RAID-Level unterstützt. Dabei kann ZFS entweder als lokales Verzeichnis mit Unterstützung für alle Content-Speichertypen oder als zvol-Block-Storage, aktuell mit Unterstützung von KVM-Images im Raw-Format, genutzt werden.

Neu in der aktuellen Version von Proxmox ist auch das ZFS Storage Plug-in, das die Nutzung von einem lokal installierten ZFS-System unterstützt und Live-Snapshots und Rollbacks erlaubt. Auch platz- und leistungssparende verlinkte Vorlagen und Klone sind dabei möglich. Das neue Plugin ergänzt die bereits in Proxmox VE verfügbaren Plugins für ZFS für iSCSI, Ceph, GlusterFS, NFS, iSCSI und andere.

Mit der neuen Funktion »Hotplug« können ab sofort virtuelle Festplatten, Netzwerkkarten oder USBs während des laufenden Serverbetriebs installiert oder ausgetauscht werden. Bei allen anderen installierten virtuellen Hardware-Komponenten, welche Hotplug noch nicht ermöglichen, wird ab Proxmox VE 3.4 der Vermerk »anhängige Änderungen« im Web-GUI angelegt. Dies ermöglicht dem Administrator, den aktuellen Status seiner Änderungen im Blick zu behalten.

Proxmox Virtual Environment (Proxmox VE) ist eine freie Virtualisierungsplattform, die die Linux-Hypervisor-Technologie KVM und die virtuelle Container-Technologie OpenVZ miteinander kombiniert und die Bildung von hochverfügbaren Clustern ermöglicht. Die Lösung ist unter der GNU Affero General Public License 3 (AGPL v3) lizenziert und steht in der neuen Version als ISO-Image auf der Herstellerwebseite zur Verfügung. Für Unternehmenskunden bietet Proxmox Server Solutions verschiedene Support-Dienstleistungen ab 59,90 Euro pro Jahr und CPU an.

Quelle : www.pro-linux.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox VE 4.1
« Antwort #3 am: 12 Dezember, 2015, 19:00 »
Changelog

based on Debian Jessie 8.2.0
Linux kernel 4.2.6
improved startup/shutdown behavior (systemd)
enable NTP by default
installer: allow up to 8 disks for ZFS
KVM: add qemu agent GUI option
KVM: update network boot ROMs
Improve HA GUI for users with restricted permissions
add Galician language to GUI
LXC: add rootfs resize to GUI
LXC: add support for Fedora 22 and Debian stretch/sid, Ubuntu 15.10
LXC: support unpriviledged containers (technology preview)
storage: added LVM thin support (technology preview)
Support for Turnkey Linux LXC appliances
added new pvereport command
countless bug fixes and package updates (for all details see bugtracker and GIT)

[close]

http://www.proxmox.com/downloads

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox VE 4.2
« Antwort #4 am: 28 April, 2016, 16:32 »
Whats new:>>

Most important improvements include:

    New GUI: Sencha Ext JS 6 framework with enhanced interactive features
    New LVM-thin and ZFS improvements help increase storage utilization
    ZFS-Plugin automatically configured out-of-the-box
    LXC containers with additional mount points
    Finally: Rate limit for network (containers)
    Improvements at Ceph GUI
    SSL certificates with Let's Encrypt

Read the forum announcement here: https://forum.proxmox.com/threads/proxmox-ve-4-2-released.27131/

http://www.proxmox.com/downloads

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox VE 5.0 Beta 1
« Antwort #5 am: 27 März, 2017, 17:30 »
Release Notes

We are proud to announce the release of the first beta of our Proxmox VE 5.x family - based on the great Debian Stretch.

With the first beta we invite you to test your hardware and your upgrade path. The underlying Debian Stretch is already in a good shape and the 4.10 kernel performs outstandingly well. The 4.10 kernel for example allows running a Windows 2016 Hyper-V as a guest OS (nested virtualization).

This beta release provides already packages for Ceph Luminous v12.0.0.0 (dev), the basis for the next long-term Ceph release.

Whats next?

In the coming weeks we will integrate step by step new features into the beta, and we will fix all release critical bugs.

[close]

http://www.proxmox.com/downloads

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox 5.0
« Antwort #6 am: 05 Juli, 2017, 12:29 »
Release Notes

Based on Debian Stretch 9.0
Kernel 4.10.15
QEMU 2.9
LXC: update to 2.0.8
New asynchronous Storage Replication feature (needs ZFS, technology preview)
New/updated LXC templates (Debian, Ubuntu, CentOS, Fedora, OpenSUSE, Arch Linux, Gentoo and Alpine)
Updated/improved noVNC console]
Ceph v12.1.0 Luminous (technology preview), packaged by Proxmox
live migration with local storage
GUI improvements

    USB und Host PCI address visibility
    improved bulk and filtering options

Improved installation ISO
Importing Qemu/KVM_Virtual_Machines#_importing_virtual_machines_from_foreign_hypervisors
improved reference documentation with screenshots
countless bug fixes and package updates (for all details see bugtracker and GIT)

[close]

http://www.proxmox.com/downloads

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox VE 5.1
« Antwort #7 am: 25 Oktober, 2017, 18:30 »
Changelog

Based on Debian Stretch 9.2
Kernel 4.13.3
QEMU 2.9.1
LXC: update to 2.1
Ceph 12.2.1 (Luminous LTS, stable), packaged by Proxmox
ZFS 0.7.2
Improved reference documentation with screenshots
Countless bug fixes and package updates (for all details see bugtracker and GIT)

[close]

http://www.proxmox.com/downloads

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox VE 5.2
« Antwort #8 am: 17 Mai, 2018, 16:40 »
Changelog

Based on Debian Stretch 9.4
Kernel 4.15.17
QEMU 2.11.1
LXC 3.0.0
Ceph 12.2.5 (Luminous LTS, stable), packaged by Proxmox
ZFS 0.7.8
Cloudinit GUI support
Cluster create/join nodes via GUI
Certificate management including Let´s Encrypt GUI
SMB/CIFS Storage plugin (supports backups, images, templates, iso and containers)
Display IP for VM (using qemu-guest-agent)
LXC: templates and clones, move volume/disk
Create and edit new roles via GUI
I/O bandwith limits for restore operations (globally, per storage or per restore job)
new and improved xterm.js integration including reconnect logic (on container reboots or restart migrations)
Basic/Advanced GUI
ebtables support
Improved reference documentation
Countless bug fixes and package updates (for all details see bugtracker and GIT)

[close]

http://www.proxmox.com/downloads

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox VE 5.3
« Antwort #9 am: 05 Dezember, 2018, 17:30 »
Release Notes

Proxmox Server Solutions GmbH today unveiled Proxmox VE 5.3, its latest open-source server virtualization management platform. Proxmox VE is based on Debian Stretch 9.6 with a modified Linux Kernel 4.15. Ceph Storage has been updated to version 12.2.8 (Luminous LTS, stable), and is packaged by Proxmox.

Proxmox VE and CephFS
Proxmox VE 5.3 now includes CephFS in its web-based management interface thus expanding its comprehensive list of already supported file and block storage types. CephFS is a distributed, POSIX-compliant file system and builds on the Ceph cluster. Like Ceph RBD (Rados Block Device), which is already integrated into Proxmox VE, CephFS now serves as an alternative interface to the Ceph storage. For CephFS Proxmox allows storing VZDump backup files, ISO images, and container templates. The distributed file system CephFS eliminates the need for external file storage such as NFS or Samba and thus helps reducing hardware cost and simplifies management.

The CephFS file system can be created and configured with just a few clicks in the Proxmox VE management interface. To deploy CephFS users need a working Ceph storage cluster and a Ceph Metadata Server (MDS) node, which can also be created in the Proxmox VE interface. The MDS daemon separates metadata and data from each other and stores them in the Ceph file system. At least one MDS is needed, but its recommended to deploy multiple MDS nodes to improve high availability and avoid SPOF. If several MDS nodes are created only one will be marked as ‘active’ while the others stay ‘passive’ until they are needed in case of failure of the active one.

Further Improvements in Proxmox VE 5.3
Proxmox VE 5.3 brings many improvements in storage management. Via the Disk management it is possible to easily add ZFS raid volumes, LVM, and LVMthin pools as well as additional simple disks with a traditional file system. The existing ZFS over iSCSI storage plug-in can now access LIO target in the Linux kernel. Nesting is enabled for LXC containers making it possible to use LXC or LXD inside a container. Also, access to NFS or CIFS/Samba server can be configured inside containers. For the keen and adventurous user, Proxmox VE brings a simplified configuration of PCI passthrough and virtual GPUs (vGPUs such as Intel KVMGT)–now even possible via the web GUI.

Countless bugfixes and smaller improvements are listed in the release notes and can be found in detail in the Proxmox bugtracker or in the Git repository.

[close]

http://www.proxmox.com/downloads

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox VE 5.4
« Antwort #10 am: 12 April, 2019, 19:45 »
Release Notes

Installing Ceph via user interface with the new wizard – Integrated into the Proxmox VE software stack since 2014 the distributed storage technology Ceph comes with own packages and support from the Proxmox team. The configuration of a Ceph cluster has already been available via the web interface, now with Proxmox VE 5.4 the developers have brought the installation of Ceph from the command line to the user interface making it extremely fast and easy to setup and configure a hyper-converged Proxmox VE/Ceph cluster. Additionally, enterprise on a budget can use commodity off-the-shelf hardware allowing them to cut costs for their growing data storage demands.

Greater Flexibility with High Availability improvements – Proxmox VE 5.4 provides new options to set the HA policy data center-wide, changing the way how guests are treated upon a node shutdown or reboot. This brings greater flexibility and choice to the user. The policy choices are:

- Freeze: always freeze services—independently of the shutdown type (reboot, poweroff).
- Fail-over: never freeze services—this means a service will get recovered to another node if possible and if the current node doesn’t come back up in the grace period of one minute.
- Default: this is the current behavior—freeze on reboot but do not freeze on poweroff.
Suspend to disk/hibernation support for Qemu/KVM guests – With Proxmox VE 5.4 users can hibernate Qemu guests independent of the guest OS and have them resumed properly on the next restart. Hibernation saves the RAM contents and the internal state to permanent storage. This allows users to preserve the running state of their qemu-guests across most upgrades to and reboots of the PVE-node. Additionally it can speed up the startup of guests running complex workloads, and also workloads which need lots of resources at initial setup, but free them later on.
Security: Support for U2F Authentication – Proxmox VE 5.4 supports the U2F (Universal 2nd Factor) protocol which can be used in the web-based user interface as an additional method of two-step verification for users. The U2F is an open authentication standard and simplifies the two-factor authentication. Since it is required in certain domains and environments this is an important improvement to security practices. The new U2F authentication and the TOTP second factor authentication can be configured by each user by themselves without needing a ‘User.Modify’- permission.
Improved ISO installation wizard – The Proxmox VE ISO installation wizard has been optimized offering the ability to go back to a previous screen during the installation. Users can adapt their choices made, without the need to restart the complete installation process. Before the actual installation, a summary page will be displayed containing all relevant information.
Improved Qemu Guest creation wizard - As often requested by the Proxmox community some options like for example Machine-type (q35, pc-i440fx), Firmware (Seabios, UEFI), or SCSI controller can now be selected directly in the VM creation wizard, and dependent options get set to sensible values directly.

[close]

http://www.proxmox.com/downloads

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox VE 6.0
« Antwort #11 am: 17 Juli, 2019, 19:30 »
Release Notes

Neue Funktionen in Proxmox VE 6.0

    Ceph Nautilus (14.2) und verbesserte Ceph-Benutzeroberfläche: Mit einem Proxmox VE/Ceph-Cluster kann eine hyperkonvergente Infrastruktur (HCI) aufgesetzt und übersichtlich verwaltet werden. Proxmox VE 6.0 integriert die aktuellste Version Ceph 14.2.1 (Nautilus) und bringt zudem viele neue Funktionen in die web-basierte Verwaltungsoberfläche. So wird die Cluster-Übersicht für Ceph jetzt auch in der ‚Datacenter View‘ angezeigt; ein neues Donut-Diagramm visualisiert Aktivität und Zustand der Placement Groups (PGs); die Version aller Ceph-Services wird angezeigt was die Erkennung veralteter Services leichter macht; die Konfigurationseinstellungen des Config-Files und der Datenbank können angezeigt werden; eine neue Auswahl ermöglicht es Public- und Cluster-Netzwerke in der Web-Oberfläche auszuwählen; die Verschlüsselung von OSDs lässt sich mittels Checkbox gleich bei der Erstellung aktivieren.
    Cluster-Kommunikation mit Corosync 3 und Kronosnet (kNet): Proxmox VE 6.0 hat die Cluster-Kommunikation auf Corosync 3 aktualisiert wodurch das „on-the-wire“-Format gewechselt hat. Corosync verwendet Unicast als Standard Transport-Medium. Dies bietet eine bessere Failover-Kontrolle da Prioritäten für verschiedene Netzwerke vergeben werden können die bei Auftreten eines Ausfalls in Kraft treten. In der Web-Oberfläche steht ein neues Auswahl-Widget für das Netzwerk zur Verfügung das die Auswahl der richtigen Link-Adresse erleichtert und so hilft Tippfehler zu vermeiden.
    ZFS 0.8.1 mit Unterstützung für native Verschlüsselung und TRIM für SSDs: Mit der Aktualisierung auf die aktuellste ZFS-Version v0.8.1 lässt sich in Proxmox VE das Dateisystem nativ verschlüsseln. Die Verschlüsselung ist direkt in die `zfs`-Utility integriert und ermöglicht damit eine komfortable Schlüsselverwaltung. Proxmox VE 6.0 bringt auch die Unterstützung von TRIM. Mit dem Befehl `zpool trim` werden SSDs über ungenutzte Blöcke informiert. TRIM hilft so die Ressourcenverwendung zu verbessern und trägt zur SSD-Langlebigkeit bei. Weiters wurde die Unterstützung von Checkpoints auf Pool-Level hinzugefügt.
    Support für ZFS auf UEFI und auf NVMe: der Proxmox VE ISO-Installer unterstützt mit der neuen Version ‚ZFS root via UEFI‘; so kann zum Beispiel ein ZFS-Mirror auf NVMe SSDs gebootet werden. Durch die Verwendung von `systemd-boot` als Bootloader anstelle von Grub lassen sich alle Pool Level-Features auf dem Root-Pool aktivieren.
    QEMU 4.0.0: Anwender können mit Proxmox VE 6.0 die Web-Oberfläche nutzen um Hosts mit lokalem Speicher live zu migrieren; auch mehr CPU-Flags für virtuelle Maschinen können gesetzt werden. Unterstützung für Hyper-V Enlightenment wurde hinzugefügt womit sich die Performance von Windows in einer virtuellen Maschine unter Qemu/KVM verbessert.
    Benutzer-definierte Cloudinit-Konfiguration: Proxmox VE 6.0 bringt Unterstützung für benutzer-definierte Cloudinit-Konfigurationen, die sich als „Snippet“ auf einem Storage ablegen lassen. Mit dem Befehl `qm cloudinit dump` lässt sich die aktuelle Cloudinit-Konfiguration als Startpunkt für Erweiterungen nutzen.

Weitere Neuerungen in Proxmox VE 6.0

    Alte Kernel-Images werden automatisch aufgeräumt: die alten Images werden jetzt nicht mehr mit ‚NeverAutoRemove‘ versehen. So können Probleme, z.b. wenn /boot auf einer kleinen Partition gemounted wird vermieden werden.
    Statusanzeige für Gäste in der Baumansicht: Zusätzlicher Status für Gäste (Migration, Backup, Snapshot, gesperrt) wird direkt in der Baumübersicht angezeigt.
    Verbesserte ISO-Erkennung im Installer: die ISO-Erkennung im Installer wurde überarbeitet und mehr Geräte inkludiert wodurch die Erkennungsproblematik auf gewisser Hardware minimiert wird.
    Backup von Pool-Level: Backups eines ganzen Pool können erstellt werden. Wird ein Pool anstelle einer expliziten Liste von Hosts als Backup-Ziel ausgewählt, werden neue Pool-Mitglieder automatisch im Backup inkludiert und die entfernten Hosts automatisch ausgeschlossen.
    Der Authentifizierungsschlüssel wird alle 24 Stunden automatisch gewechselt: die Lebensdauer des Schlüssels wird auf 24 Stunden beschränkt um die Auswirkungen eines Schlüsselverlustes oder von mutwilligen Sicherheits-Verletzungen durch Personal zu reduzieren.
    Die Node-View in der Benutzeroberfläche bietet eine schnellere syslog-Ansicht.

Durch die Verwendung von Proxmox VE 6.0 als Open Source-Alternative zu proprietären Virtualisierungsmanagement-Lösungen können Unternehmen ihre IT-Infrastruktur zentralisieren und modernisieren und in ein flexibles und kosteneffizientes Software-definiertes Datencenter umbauen.

[close]

http://www.proxmox.com/downloads

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox VE 6.1 veröffentlicht
« Antwort #12 am: 05 Dezember, 2019, 17:00 »
Release Notes

We are very excited to announce the general availability of Proxmox VE 6.1.

It is built on Debian Buster 10.2 and a specially modified Linux Kernel 5.3, QEMU 4.1.1, LXC 3.2, ZFS 0.8.2, Ceph 14.2.4.1 (Nautilus), Corosync 3.0, and more of the current leading open-source virtualization technologies.

This release brings new configuration options available in the GUI which make working with Proxmox VE even more comfortable and secure. Editing the cluster-wide bandwidth limit for traffic types such as migration, backup-restore, clone, etc. is possible via the GUI. If the optional package ifupdown2 of the Debian network interface manager is installed, it’s now possible to change the network configuration and reload it in the Proxmox web interface without a reboot. We have improvements to 2-factor authentication with TOTP and U2F.

The HA stack has been improved and comes with a new 'migrate' shutdown policy, migrating running services to another node on shutdown.

In the storage backend, all features offered by newer kernels with Ceph and KRBD are supported with version 6.1.

We have some notable bug fixes, one of them being the QEMU monitor timeout issue or stability improvements for corosync. Countless other bugfixes and smaller improvements are listed in the release notes.

Release notes
https://pve.proxmox.com/wiki/Roadmap#Proxmox_VE_6.1

[close]

http://www.proxmox.com/downloads

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox VE 6.2
« Antwort #13 am: 13 Mai, 2020, 16:30 »
Release Notes

Neue Funktionen in Proxmox VE 6.2

Neuerungen für die web-basierte Benutzeroberfläche:

    Zusätzlich zum bereits vorhandenen HTTP-basierten Validierungspfad für Let's Encrypt TLS-Zertifikate implementiert Proxmox VE jetzt auch die Domain-Validierung über den DNS-basierten Challenge-Mechanismus. Das Einrichten vertrauenswürdiger Zertifikate über das ACME-Protokoll ist somit einfacher.
    Volle Unterstützung für bis zu acht Corosync-Links für einen Cluster. Die Verwendung mehrerer Netzwerke erhöht die Cluster-Verfügbarkeit.
    In der Ansicht ‚Storage-Inhalt‘ können IT-Administratoren die gespeicherten Daten mit der Spalte 'Erstellungsdatum' filtern, wodurch beispielsweise die Suche nach einem Backup von einem bestimmten Datum vereinfacht wird.
    Die Sprache der Benutzeroberfläche kann geändert werden ohne dass ein Neustart der Sitzung nötig ist. Darüber hinaus wurde eine arabische Übersetzung hinzugefügt womit Proxmox VE insgesamt in 20 Sprachen verfügbar ist.

Linux-Container:

    Die integrierte Containertechnologie wurde auf LXC 4.0.2 und lxcfs 4.0.3 aktualisiert. Proxmox VE 6.2 erlaubt die Erstellung von Templates für Container auf verzeichnisbasiertem Storage.
    Neue LXC-Templates für Ubuntu 20.04, Fedora 32, CentOS 8.1, Alpine Linux und Arch Linux sind verfügbar.

Zstandard for Backup/Restore:

    Der integrierte Proxmox VE Backup-Manager unterstützt Zstandard (zstd), den hocheffizienten und schnellen, verlustfreien Datenkompressions-Algorithmus.

Benutzer- und Berechtigungsverwaltung:

    Proxmox VE verwendet eine rollenbasierte Benutzer- und Berechtigungsverwaltung für alle Objekte wie VMs, Storage, Nodes, etc.. Die neue Funktion ‚LDAP sync‘ ermöglicht es Benutzer und Gruppen in die Proxmox User- und Gruppen Rechteverwaltung zu synchronisieren.
    Mit der Unterstützung von API-Tokens erlaubt Proxmox VE anderen Systemen oder Clients Zugriff auf den größten Teil der REST-API. Diese Tokens können für einzelne Benutzer generiert werden; optional können separate Berechtigungen und Ablaufdaten konfiguriert werden, um den Umfang und die Dauer des Zugriffs zu begrenzen. Sollte das API-Token kompromittiert werden, kann es widerrufen werden, ohne dass der Benutzer selbst deaktiviert werden muss.

Weitere Neuerungen

    QEMU/KVM: Unterstützung für Live-Migration mit replizierten Disks (Storage Replikation mit ZFS) wurde hinzugefügt.
    Durch die Verbesserung des Deinstallationsprozesses von Ceph ist das Testen der Ceph-Storagetechnologie noch einfacher mit Proxmox VE.

[close]

http://www.proxmox.com/downloads

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Proxmox VE 7.0
« Antwort #14 am: 07 Juli, 2021, 21:30 »
Release Notes

    Based on Debian Bullseye (11)
    Ceph Pacific 16.2 as new default
    Ceph Octopus 15.2 continued support
    Kernel 5.11 default
    LXC 4.0
    QEMU 6.0
    ZFS 2.0.4

Changelog Overview

    Installer:
        Rework the installer environment to use switch_root instead of chroot, when transitioning from initrd to the actual installer.

            This improves module and firmware loading, and slightly reduces memory usage during installation.

        Automatically detect HiDPI screens, and increase console font and GUI scaling accordingly. This improves UX for workstations with Proxmox VE (for example, for passthrough).
        Improve ISO detection:
            Support ISOs backed by devices using USB Attached SCSI (UAS), which modern USB3 flash drives often do.
            Linearly increase the delay of subsequent scans for a device with an ISO image, bringing the total check time from 20s to 45s. This allows for the detection of very slow devices, while continuing faster in general.
        Use zstd compression for the initrd image and the squashfs images.
        Setup Btrfs as root file system through the Proxmox VE Installer (Technology preview)
        Update to busybox 1.33.1 as the core-utils provider.

    Enhancements in the web interface (GUI):
        The node summary panel shows a high level status overview, while the separate Repository panel shows in-depth status and list of all configured repositories. Basic repository management, for example, activating or deactivating a repository, is also supported.
        Notes panels for Guests and Nodes can now interpret Markdown and render it as HTML.
        On manually triggered backups, you can now enable pruning with the backup-retention parameters of the target storage, if configured.
        The storage overview now uses SI units (base 10) to be consistent with the units used in the graphs.
        Support for security keys (like YubiKey) as SSH keys, when creating containers or preparing cloud-init images.
        Improved rendering for IOMMU-groups when adding passthrough PCI devices to QEMU guests.
        Improved translations, among others:
            Arabic
            French
            German
            Japan
            Polish
            Turkish

    Access Control:
        Single-Sign-On (SSO) with the new OpenID Connect access realm type.

        You can integrate external authorization servers, either using existing public services or your own identity and access management solution, for example, Keycloack or LemonLDAP::NG.

        Added new permission Pool.Audit to allow users to see pools, without permitting them to change the pool.

        See breaking changes below for some possible impact in custom created roles.

    Virtual Machines (KVM/QEMU):
        QEMU 6.0 has support for io_uring as an asynchronous I/O engine for virtual drives - this is now the default for newly started or migrated guests.

        The new default can be overridden in the guest config via qm set VMID --DRIVE EXISTING-DRIVE-OPTS,aio=native (where, for example, DRIVE would be scsi0 and the OPTS could be get from qm config VMID output).

        EFI disks stored on Ceph now use the writeback caching-mode, improving boot times in case of slower or highly-loaded Ceph storages.
        Unreferenced VM disks (not present in the configuration) are not destroyed automatically any more:
            This was made opt-in in the GUI in Proxmox VE 6.4 and is now also opt-in in the API and with CLI tools.
            Furthermore, if this clean-up option is enabled, only storages with content-types of VM or CT disk images, or rootdir will be scanned for unused disk-volumes.

        With this new default value, data loss is also prevented by default. This is especially beneficial in cases of dangerous and unsupported configurations, for example, where one backing storage is added twice to a Proxmox VE cluster with an overlapping set of content-types.

        VM snapshot states are now always removed when a VM gets destroyed.
        Improved logging during live restore.

    Container
        Support for containers on custom storages.
        Clone: Clear the cloned container's `/etc/machine-id` when systemd is in use or that file exists. This ID must be unique, in order to prevent issues such as MAC address duplication on Linux bridges.

    Migration
        QEMU guests: The migration protocol for sending the Spice ticket changed in Proxmox VE 6.1. The code for backwards compatibility has now been dropped, prohibiting the migration of VMs from Proxmox VE 7.0 to hypervisors running Proxmox VE 6.1 and older.

        Always upgrade to the latest Proxmox VE 6.4, before starting the upgrade to Proxmox VE 7.

        Containers: The force parameter to pct migrate, which enabled the migration of containers with bind mounts and device mounts, has been removed. Its functionality has been replaced by marking the respective mount-points as shared.

    High Availability (HA):
        Release LRM locks and disable watchdog protection if all services of the node the LRM is running on, got removed and no new ones were added for over 10 minutes.

        This reduced the possible subtle impact of an active watchdog after a node was cleared of HA services, for example, when HA services were previously only configured for evaluation.

        Add a new HA service state recovery and transform the fence state in a transition to that new state.

        This gains a clear distinction between to be fenced services and the services whose node already got fenced and are now awaiting recovery.

        Continuously retry recovery, even if no suitable node was found.

        This improves recovery for services in restricted HA groups, as only with that the possibility of a quorate and working partition but no available new node for a specific service exists.
        For example, if HA is used for ensuring that a HA service using local resource, like a VM using local storage, will be restarted and up as long as the node is running.

        Allow manually disabling HA service that currently are in recovery state, for more admin control in those situations.

    Backup and Restore
        Backups of QEMU guests now support encryption using a master key.
        It is now possible to back up VM templates with SATA and IDE disks.
        The maxfiles parameter has been deprecated in favor of the more flexible prune-options.
        vzdump now defaults to keeping all backups, instead of keeping only the latest one.
        Caching during live restore got reworked, reducing total restore time required and improving time to fully booted guest both significantly.
        Support file-restore for VMs using ZFS or LVM for one, or more, storages in the guest OS.

    Network:
        Default to the modern ifupdown2 for new installations using the Proxmox VE official ISO. The legacy ifupdown is still supported in Proxmox VE 7, but may be deprecated in a future major release.

    Time Synchronization:
        Due to the design limitations of systemd-timesync, which make it problematic for server use, new installations will install chrony as the default NTP daemon.

        If you upgrade from a system using systemd-timesyncd, it's recommended that you manually install either chrony, ntp or openntpd.

    Ceph Server
        Support for Ceph 16.2 Pacific
        Ceph monitors with multiple networks can now be created using the CLI, provided you have multiple public_networks defined.

        Note that multiple public_networks are usually not needed, but in certain deployments, you might need to have monitors in different network segments.

        Improved support for IPv6 and mixed setups, when creating a Ceph monitor.
        Beginning with Ceph 16.2 Pacific, the balancer module is enabled by default for new clusters, leading to better distribution of placement groups among the OSDs.
        Newly created Bluestore OSDs will benefit from the newly enabled sharding configuration for rocksdb, which should lead to better caching of frequently read metadata and less space needed during compaction.

    Storage
        Support for Btrfs as technology preview
            Add an existing Btrfs file system as storage to Proxmox VE, using it for virtual machines, container, as backup target or to store and server ISO and container appliance images.
        The outdated, deprecated, internal DRBD Storage plugin has been removed. A derived version targeting newer DRBD is maintained by Linbit[1].
        More use of content-type checks instead of checking a hard-coded storage-type list in various places.
        Support downloading ISO and Cont appliance images directly from a URL to a storage, including optional checksum verifications.

    Disk Management
        Wiping disks is now possible from the GUI, enabling you to clear disks which were previously in use and create new storages on them. Note, wiping a disk is a destructive operation with data-loss potential.

        Note that with using this feature any data on the disk will be destroyed permanently.

    pve-zsync
        Separately configurable number of snapshots on source and destination, allowing you to keep a longer history on the destination, without the requirement to have the storage space available on the source.

    Firewall
        The sysctl settings needed by pve-firewall are now set on every update to prevent disadvantageous interactions during other operations (for example package installations).

    Certificate management
        The ACME standalone plugin has improved support for dual-stacked (IPv4 and IPv6) environments and no longer relies on the configured addresses to determine its listening interface.

Breaking Changes

    Pool permissions

    The old permission Pool.Allocate now only allows users to edit pools, not to see them. Therefore, Pool.Audit must be added to existing custom roles with the old Pool.Allocate to preserve the same behavior. All built-in roles are updated automatically.

    VZDump
        Hookscript: The TARFILE environment variable was deprecated in Proxmox VE 6, in favor of TARGET. In Proxmox VE 7, it has been removed entirely and thus, it is not exported to the hookscript anymore.
        The size parameter of vzdump has been deprecated, and setting it is now an error.

    API deprecations, moves and removals
        The upgrade parameter of the /nodes/{node}/(spiceshell|vncshell|termproxy) API method has been replaced by providing upgrade as cmd parameter.
        The /nodes/{node}/cpu API method has been moved to /nodes/{node}/capabilities/qemu/cpu
        The /nodes/{node}/ceph/disks API method has been replaced by /nodes/{node}/disks/list
        The /nodes/{node}/ceph/flags API method has been moved to /cluster/ceph/flags
        The db_size and wal_size parameters of the /nodes/{node}/ceph/osd API method have been renamed to db_dev_size and wal_dev_size respectively.
        The /nodes/<node>/scan/usb API method has been moved to /nodes/<node>/hardware/usb

    CIFS credentials have been stored in the namespaced /etc/pve/priv/storage/<storage>.pw instead of /etc/pve/<storage>.cred since Proxmox VE 6.2 - existing credentials will get moved during the upgrade allowing you to drop fallback code.

    qm|pct status <VMID> --verbose, and the respective status API call, only include the template line if the guest is a template, instead of outputting template: for guests which are not templates.

Known Issues

    Network: Due to the updated systemd version, and for most upgrades, the newer kernel version (5.4 to 5.11), some network interfaces might change upon reboot:
        Some may change their name. For example, due to newly supported functions, a change from enp33s0f0 to enp33s0f0np0 could occur.

            We observed such changes with high-speed Mellanox models.

        Bridge MAC address selection has changed in Debian Bullseye - it is now generated based on the interface name and the machine-id (5) of the system.

        Systems installed using the Proxmox VE 4.0 to 5.4 ISO may have a non-unique machine-id. These systems will have their machine-id re-generated automatically on upgrade, to avoid a potentially duplicated bridge MAC.

    If you do the upgrade remotely, make sure you have a backup method of connecting to the host (for example, IPMI/iKVM, tiny-pilot, another network accessible by a cluster node, or physical access), in case the network used for SSH access becomes unreachable, due to the network failing to come up after a reboot.

    Container:
        cgroupv2 support by the container’s OS is needed to run in a pure cgroupv2 environment. Containers running systemd version 231 or newer support cgroupv2 [1], as do containers that do not use systemd as init system in the first place (e.g., Alpine Linux or Devuan).

        CentOS 7 and Ubuntu 16.10 are two prominent examples for Linux distributions releases, which have a systemd version that is too old to run in a cgroupv2 environment, for details and possible fixes see:

https://pve.proxmox.com/pve-docs/chapter-pct.html#pct_cgroup_compat

[close]

http://www.proxmox.com/downloads

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )