Rancher Wrap: Another Year of Innovation and Growth

Monday, 12 December, 2022

2022 was another year of innovation and growth for SUSE’s Enterprise Container Management business. We introduced significant upgrades to our Rancher and NeuVector products, launched new open source projects and matured others. Exiting 2022, Rancher remains the industry’s most widely adopted container management platform and SUSE remains the preferred vendor for enabling enterprise cloud native transformation. Here’s a quick look at a few key themes from 2022.  

Security Takes Center Stage 

As the container management market matured in 2022, container security took center stage.  Customers and the open source community alike voiced concerns around the risks posed by their increasing reliance on hybrid-cloud, multi-cloud, and edge infrastructure. Beginning with the open sourcing of NeuVector, which we acquired in Q4 2021, in 2022 we continued to meet our customers’ most stringent security and assurance requirements, making strategic investments across our portfolio, including:  

  • Kubewarden – In June, we donated Kubewarden to the CNCF. Now a CNCF sandbox project, Kubewarden is an open source policy engine for Kubernetes that automates the management and governance of policies across Kubernetes clusters thereby reducing risk.  It also simplifies the management of policies by enabling users to integrate policy management into their CI/CD engines and existing infrastructure.  
  • SUSE NeuVector 5.1 – In November, we released SUSE Neuvector 5.1, further strengthening our already industry leading container security platform. 
  • Rancher Prime– Most recently, we introduced Rancher Prime, our new commercial offering, replacing SUSE Rancher.  Supporting our focus on security assurances, Rancher Prime offers customers the option of accessing their Rancher Prime software directly from a trusted private registry. Additionally, Rancher Prime FIPS-140-3 and SLSA Level 2 and 3 certifications will be finalized in 2023.

Open Source Continues to Fuel Innovation 

 Our innovation did not stop at security. In 2022, we also introduced new projects and matured others, including:  

  • Elemental – Fit for Edge deployments, Elemental is an open source project, that enables centralized management and operations of RKE2 and K3s clusters when deployed with Rancher. 
  • Harvester SUSE’s open-source cloud-native hyper-converged infrastructure (HCI) alternative to proprietary HCI is now utilized across more than 710+ active clusters. 
  • Longhorn – now a CNCF incubator project, Longhorn is deployed across more than 72,000 nodes. 
  • K3s – SUSE’s lightweight Kubernetes distribution designed for the edge which we donated to the CNCF, has surpassed 4 million downloads. 
  • Rancher Desktop – SUSE’s desktop-based container development environment for Windows, macOS, and Linux environments has surpassed 520,000 downloads and 4,000 GitHub stars since its January release. 
  • Epinio – SUSE’s Kubernetes-powered application development platform-as-a-service (PaaS) solution in which users you can deploy apps without setting up infrastructure yourself has surpassed 4,000 downloads and 300 stars on GitHub since its introduction in September. 
  • Opni – SUSE’s multi-cluster observability tool (including logging, monitoring and alerting) with AIOps has seen steady growth with over 75+ active deployments this year.  

 As we head into 2023, Gartner research indicates the container management market will grow ~25% CAGR to $1.4B in 2025. In that same time-period, 85% of large enterprises will have adopted container management solutions, up from 30% in 2022.  SUSE’s 30-year heritage in delivering enterprise infrastructure solutions combined with our market leading container management solutions uniquely position SUSE as the vendor of choice for helping organizations on their cloud native transformation journeys.  I can’t wait to see what 2023 holds in store! 

Understanding Hyperconverged Infrastructure at the Edge from Adoption to Acceleration

Thursday, 29 September, 2022

You may be tired of the regular three-tiered infrastructure and the management issues it can bring in distributed systems and maintenance. Or perhaps you’ve looked at your infrastructure and realized that you need to move away from its current configuration. If that’s the case, hyperconverged infrastructure (HCI) may be a good solution because it removes a lot of management overhead, acting like a hypervisor that can handle networking and storage.

There are some key principles behind HCI that bring to light the advantages it has. Particularly, it can help simplify the deployment of new nodes and new applications. Because everything inside your infrastructure runs on normal x86 servers, adding nodes is as simple as spinning up a server and joining it to your HCI cluster. From here, applications can easily move around on the nodes as needed to optimize performance.

Once you’ve gotten your nodes deployed and added to your cluster, everything inside an HCI can be managed by policies, making it possible for you to strictly define the behavior of your infrastructure. This is one of the key benefits of HCI — it uses a single management interface. You don’t need to configure your networking in one place, your storage in another, and your compute in a third place; everything can be managed cohesively.

This cohesive management is possible because an HCI relies heavily on virtualization, making it feasible to converge the typical three tiers (compute, networking and storage) into a single plane, offering you flexibility.

While HCI might be an overkill for simple projects, it’s becoming a best practice for various enterprise use cases. In this article, you’ll see some of the main use cases for wanting to implement HCI in your organization. We’ll also introduce Harvester as a modern way to get started easier.

While reading through these use cases, remember that the use of HCI is not limited to them. To benefit most from this article, think about what principles of HCI make the use cases possible, and perhaps, you’ll be able to come up with additional use cases for yourself.

Why you need a hyperconverged infrastructure

There are many use cases when it comes to HCI, and most of them are based on the fact that HCI is highly scalable and, more importantly, it’s easy to scale HCI. The concept started getting momentum back in 2009, but it wasn’t until 2014 that it started gaining traction in the community at large. HCI is a proven and mature technology that, in its essence, has worked the same way for many years.

The past few decades have seen virtualization become the preferred method for users to optimize their resource usage and manage their infrastructure costs. However, introducing new technology, such as containers, has required operators to shift their existing virtualized-focused infrastructure to integrate with these modern cloud-based solutions, bringing new challenges for IT operators to tackle.

Managing virtualized resources (and specifically VMs) can be quite challenging. This is where HCI can help. By automating and simplifying the management of virtual resources, HCI makes it easy for developers and team leads to leverage virtualization to the fullest and reduce the time to market their product, a crucial factor in determining the success of a project.

Following are some of the most popular ways to use HCI currently:

Edge computing

Edge computing is the principle of running workloads outside the primary data centers of a company. While there’s no single reason for wanting to use edge computing, the most popular reason is to decrease customer latency.

In edge computing, you don’t always need an extensive fleet of servers, and the amount of power you need will likely change based on the location. You’ll need more servers to serve New York City with a population of 8.3 million than you’d need to fill the entire country of Denmark with a population of 5.8 million. One of the most significant benefits of HCI is that it scales incredibly well and low. You’d typically want multiple nodes for reasons like backup, redundancy and high availability. But theoretically, it’s possible to scale down to a single node.

Given that HCI runs on normal hardware, it’s also possible for you to optimize your nodes for the workload you need. If your edge computing use case is to provide a cache for users, then you’d likely need more storage. However, if you’re implementing edge workers that need to execute small scripts, you’re more likely to need processing power and memory. With HCI, you can adapt the implementation to your needs.

Migrating to a Hybrid Cloud Model

Over the past decade, the cloud has gotten more and more popular. Many companies move to the cloud and later realize their applications are better suited to run on-premises. You will also find companies that no longer want to run things in their data centers and instead want to move them to the cloud. In both these cases, HCI can be helpful.

If you want to leverage the cloud, HCI can provide a similar user experience on-premise. HCI is sometimes described as a “cloud in a box” because it can offer similar services one would expect in a public cloud. Examples of this include a consistent API for allocating compute resources dynamically, load balancers and storage services. Having a similar platform is a good foundation for being able to move applications between the public cloud and on-premise. You can even take advantage of tools like Rancher that can manage cloud infrastructure and on-prem HCI from a single pane of glass.

Modernization strategy

Many organizations view HCI as an enabler in their modernization processes. However, modernization is quite different from migration.

Modernization focuses on redesigning existing systems and architecture to make the most efficient use of the new environment and its offerings. With its particular focus on simplifying the complex management of data, orchestration and workflows, HCI is perfect for modernization.

HCI enables you to consolidate your complex server architecture with all its storage, compute and network resources into smaller, easy-to-manage nodes. You can easily transform a node from a storage-first resource to a compute-first resource, allowing you to design your infrastructure how you want it while retaining simplicity.

Modern HCI solutions like Harvester can help you to run your virtualized and containerized workloads side by side, simplifying the operational and management components of infrastructure management while also providing the capabilities to manage workloads across distributed environments. Regarding automation, Harvester provides a unique approach by using cloud native APIs. This allows the user to automate using the same tools they would use to manage cloud native applications. Not switching between two “toolboxes” can increase product development velocity and decrease the overhead of managing complex systems. That means users of this approach get their product to market sooner and with less cost.

Virtual Desktop Infrastructure (VDI)

Many organizations maintain fleets of virtual desktops that enable their employees to work remotely while maintaining standards of security and performance. Virtual desktops are desktop environments that are not limited to the hardware they’re hosted in; they can be accessed remotely via the use of software. Organizations prefer them over hardware since they’re easy to provision, scale, and destroy on demand.

Since compute and storage are two strongly connected and important resources in virtual desktops, HCI can easily manage virtual desktops. HCI’s enhanced reliability provides VDI with increased fault tolerance and efficient capacity consumption. HCI also helps cut down costs for VDI as there is no need for separate storage arrays, dedicated storage networks, and related hardware.

Remote office/Branch office

A remote office/branch office (ROBO) is one of the best reasons for using HCI. In case you’re not familiar, it’s typical for big enterprises to have a headquarters where they host their data and internal applications. Then the ROBOs will either have a direct connection to the headquarters to access the data and applications or have a replica in their own location. In both cases, you will introduce more management and maintenance and other factors, such as latency.

With HCI, you can spin up a few servers in the ROBOs and add them to an HCI cluster. Now, you’re managing all your infrastructure, even the infrastructure in remote locations, through a single interface. Not only can this result in a better experience for the employees, but depending on how much customer interaction they have, it can result in a better customer experience.

In addition, with HCI, you’re likely to lower your total cost of ownership. While you would typically have to put up an entire rack of hardware in a ROBO, you’re now expected to accomplish the same with just a few servers.

Conclusion

After reading this article, you now know more about how HCI can be used to support a variety of use cases, and hopefully, you’ve come up with a few use cases yourself. This is just the beginning of how HCI can be used. Over the next decade or two, HCI will continue to play an important role in any infrastructure strategy, as it can be used in both on-premises data centers and the public cloud. The fact that it uses commodity x86 systems to run makes it suitable for many different use cases.

If you’re ready to start using HCI for yourself, take a look at Harvester. Harvester is a solution developed by SUSE, built for bare metal servers. It uses enterprise-grade technologies, such as KubernetesKubeVirt and Longhorn.

What’s Next:

Want to learn more about how Harvester and Rancher are helping enterprises modernize their stack speed? Sign up here to join our Global Online Meetup: Harvester on October 26th, 2022, at 11 AM EST.

A Path to Legacy Application Modernization Through Kubernetes

Wednesday, 6 July, 2022

These legacy applications may have multiple services bundled into the same deployment unit without a logical grouping. They’re challenging to maintain since changes to one part of the application require changing other tightly coupled parts, making it harder to add or modify features. Scaling such applications is also tricky because to do so requires adding more hardware instances connected to load balancers. This takes a lot of manual effort and is prone to errors.

Modernizing a legacy application requires you to visualize the architecture from a brand-new perspective, redesigning it to support horizontal scaling, high availability and code maintainability. This article explains how to modernize legacy applications using Kubernetes as the foundation and suggests three tools to make the process easier.

Using Kubernetes to modernize legacy applications

A legacy application can only meet a modern-day application’s scalability and availability requirements if it’s redesigned as a collection of lightweight, independent services.

Another critical part of modern application architecture is the infrastructure. Adding more server resources to scale individual services can lead to a large overhead that you can’t automate, which is where containers can help. Containers are self-contained, lightweight packages that include everything needed for a service to run. Combine this with a cluster of hardware instances, and you have an infrastructure platform where you can deploy and scale the application runtime environment independently.

Kubernetes can create a scalable and highly available infrastructure platform using container clusters. Moving legacy applications from physical or virtual machines to Kubernetes-hosted containers offers many advantages, including the flexibility to use on-premises and multi-cloud environments, automated container scheduling and load balancing, self-healing capability, and easy scalability.

Organizations generally adopt one of two approaches to deploy legacy applications on Kubernetes: using virtual machines and redesigning the application.

Using virtual machines

A monolith application’s code and dependencies are embedded in a virtual machine (VM) so that images of the VM can run on Kubernetes. Frameworks like Rancher provide a one-click solution to run applications this way. The disadvantage is that the monolith remains unchanged, which doesn’t achieve the fundamental principle of using lightweight container images. It is also possible to run part of the application in VMs and containerize the less complex ones. This hybrid approach helps to break down the monolith to a smaller extent without huge effort in refactoring the application. Tools like Harvester can help while managing the integration in this hybrid approach.

Redesigning the application

Redesigning a monolithic application to support container-based deployment is a challenging task that involves separating the application’s modules and recreating them as stateless and stateful services. Containers, by nature, are stateless and require additional mechanisms to handle the storage of state information. It’s common to use the distributed storage of the container orchestration cluster or third-party services for such persistence.

Organizations are more likely to adopt the first approach when the legacy application needs to move to a Kubernetes-based solution as soon as possible. This way, they can have a Kubernetes-based solution running quickly with less business impact and then slowly move to a completely redesigned application. Although Kubernetes migration has its challenges, some tools can simplify this process. The following are three such solutions.

Rancher

Rancher provides a complete container management platform for Kubernetes, giving you the tools to successfully run Kubernetes anywhere. It’s designed to simplify the operational challenges of running multiple Kubernetes clusters across different infrastructure environments. Rancher provides developers with a complete Kubernetes environment, irrespective of the backend, including centralized authentication, access control and observability features:

  • Unified UI: Most organizations have multiple Kubernetes clusters. DevOps engineers can sometimes face challenges when manually provisioning, managing, monitoring and securing thousands of cluster nodes while establishing compliance. Rancher lets engineers manage all these clusters from a single dashboard.
  • Multi-environment deployment: Rancher helps you create Kubernetes clusters across multiple infrastructure environments like on-premises data centers, public clouds and edge locations without needing to know the nuances of each environment.
  • App catalog: The Rancher app catalog offers different application templates. You can easily roll out complex application stacks on top of Kubernetes with the click of a button. One example is Longhorn, a distributed storage mechanism to help store state information.
  • Security policies and role-based access control: Rancher provides a centralized authentication mechanism and role-based access control (RBAC) for all managed clusters. You can also create pod-level security policies.
  • Monitoring and alerts: Rancher offers cluster monitoring facilities and the ability to generate alerts based on specific conditions. It can help transport Kubernetes logs to external aggregators.

Harvester

Harvester is an open source, hyperconverged infrastructure solution. It combines KubeVirt, a virtual machine add-on, and Longhorn, a cloud native, distributed block storage add-on along with many other cloud native open source frameworks. Additionally, Harvester is built on Kubernetes itself.

Harvester offers the following benefits to your Kubernetes cluster:

  • Support for VM workloads: Harvester enables you to run VM workloads on Kubernetes. Running monolithic applications this way helps you quickly migrate your legacy applications without the need for complex cluster configurations.
  • Cost-effective storage: Harvester uses directly connected storage drives instead of external SANs or cloud-based block storage. This helps significantly reduce costs.
  • Monitoring features: Harvester comes with Prometheus, an open source monitoring solution supporting time series data. Additionally, Grafana, an interactive visualization platform, is a built-in integration of Harvester. This means that users can see VM or Kubernetes cluster metrics from the Harvester UI.
  • Rancher integration: Harvester comes integrated with Rancher by default, so you can manage multiple Harvester clusters from the Rancher management UI. It also integrates with Rancher’s centralized authentication and RBAC.

Longhorn

Longhorn is a distributed cloud storage solution for Kubernetes. It’s an open source, cloud native project originally developed by Rancher Labs, and it integrates with the Kubernetes persistent volume API. It helps organizations use a low-cost persistent storage mechanism for saving container state information without relying on cloud-based object storage or expensive storage arrays. Since it’s deployed on Kubernetes, Longhorn can be used with any storage infrastructure.

Longhorn offers the following advantages:

  • High availability: Longhorn’s microservice-based architecture and lightweight nature make it a highly available service. Its storage engine only needs to manage a single volume, dramatically simplifying the design of storage controllers. If there’s a crash, only the volume served by that engine is affected. The Longhorn engine is lightweight enough to support as many as 10,000 instances.
  • Incremental snapshots and backups: Longhorn’s UI allows engineers to create scheduled jobs for automatic snapshots and backups. It’s possible to execute these jobs even when a volume is detached. There’s also an adequate provision to prevent existing data from being overwritten by new data.
  • Ease of use: Longhorn comes with an intuitive dashboard that provides information about volume status, available storage and node status. The UI also helps configure nodes, set up backups and change operational settings.
  • Ease of deployment: Setting up and deploying Longhorn just requires a single click from the Rancher marketplace. It’s a simple process, even from the command-line interface, because it involves running only certain commands. Longhorn’s implementation is based on the container storage interface (CSI) as a CSI plug-in.
  • Disaster recovery: Longhorn supports creating disaster recovery (DR) volumes in separate Kubernetes clusters. When the primary cluster fails, it can fail over to the DR volume. Engineers can configure recovery time and point objectives when setting up that volume.
  • Security: Longhorn supports data encryption at rest and in motion. It uses Kubernetes secret storage for storing the encryption keys. By default, backups of encrypted volumes are also encrypted.
  • Cost-effectiveness: Being open source and easily maintainable, Longhorn provides a cost-effective alternative to the cloud or other proprietary services.

Conclusion

Modernizing legacy applications often involves converting them to containerized microservice-based architecture. Kubernetes provides an excellent solution for such scenarios, with its highly scalable and available container clusters.

The journey to Kubernetes-hosted, microservice-based architecture has its challenges. As you saw in this article, solutions are available to make this journey simpler.

SUSE is a pioneer in value-added tools for the Kubernetes ecosystem. SUSE Rancher is a powerful Kubernetes cluster management solution. Longhorn provides a storage add-on for Kubernetes and Harvester is the next generation of open source hyperconverged infrastructure solutions designed for modern cloud native environments.

Centralne zarządzanie kontenerami i maszynami wirtualnymi

Tuesday, 17 May, 2022

Konsekwencją wdrażania rozwiązań opartych na maszynach wirtualnych i kontenerach, poza oczywistymi zaletami takimi jak skalowalność, czy możliwość wdrażania innowacyjnych usług w chmurze, jest rosnąca złożoność środowisk IT i problemy z zarządzaniem rozbudowanym stosem technologii. 

Nową odpowiedzią na problem złożoności środowiska IT jest SUSE Harvester – otwarte rozwiązanie HCI (infrastruktura hiperkonwergentna) oparte na Kubernetesie, realizujące podejście cloud native.

SUSE Harvester umożliwia wdrażanie i zarządzanie całą pulą wykorzystywanych maszyn wirtualnych i kontenerów, w ujednolicony sposób, bez wprowadzania dodatkowej złożoności, narzucania ograniczeń czy zwiększonych kosztów.

Rozwiązuje to problem złożoności środowiska IT w przypadku stosowania wirtualizacji i konteneryzacji. Pozwala na optymalne zarządzanie dostępnymi zasobami hostów, storage’u i sieci niezależnie od ich lokalizacji i typu.

Zapraszamy 26 maja 2022 r. na webinar organizowany przez Linux Polska oraz SUSE. Zobacz jak zarządzać całym złożonym środowiskiem kontenerów i maszyn wirtualnych z SUSE Harvester.

Rejestracja: https://linuxpolska.pl/wydarzenia/stworz-infrastrukture-chmury-natywnej-z-suse-harvester 

Dlaczego klienci wybierają SUSE Rancher?

Monday, 4 April, 2022

Czy masz już swoje preferowane narzędzie do zarządzania Kubernetesem?  Jeżeli jeszcze nie masz albo jeśli Twoje obecne narzędzie nie spełnia wszystkich oczekiwań, zobacz co cenią nasi klienci w rozwiązaniu SUSE Rancher. Wyniki naszej ankiety są czasami wręcz zdumiewające!

10 powtarzających się odpowiedzi naszych klientów:

  1. Klienci uwielbiają nasze darmowe szkolenia – Rancher Academy. Wspomnieli o nim prawie wszyscy uczestnicy badania. Zarządzanie Kubernetesem jest bardzo skomplikowane, więc rozpoczęcie od szkolenia jest zawsze dobrym pomysłem.
  2. Nowa wersja SUSE Rancher (2.6) pojawiła się z wieloma nowymi funkcjami – nowy interfejs webowy jest piękny i intuicyjny. Klienci uwielbiają go za wygląd i łatwość obsługi. Interfejs użytkownika typu “wskaż i kliknij” znacznie skraca czas nauki.
  3. SUSE Rancher bezproblemowo łączy się z istniejącymi klastrami Kubernetes, tymi on-premise jak i w chmurze, z usługami Active Directory do uwierzytelniania itp. Rancher to gracz zespołowy!
  4. SUSE Rancher jest naprawdę heterogeniczny, jeśli chodzi o wybór systemu operacyjnego – można go wdrożyć na SUSE Linux Enterprise Server, Ubuntu, CentOS, Red Hat itd.
  5. SUSE Rancher radzi sobie z zarządzaniem złożonością Kubernetesa lepiej niż inne konkurencyjne rozwiązania. Rozmawialiśmy z administratorem IT, który zmagał się z jednym z naszych konkurencyjnych produktów. Następnie przetestował Ranchera i… wszystkie problemy szybko zniknęły.
  6. Nasz cennik z opłatami za węzeł jest tak prosty, jak to tylko możliwe. Nie pobieramy opłat za vCore/vCPU, nie stawiamy dodatkowych warunków. Cena jest za zarządzany węzeł – to wszystko.
  7. Klienci pokochali Ranchera od samego początku. Po fuzji z SUSE klient z sektora bankowego, z którym rozmawialiśmy, czuł się jeszcze lepiej, ponieważ ma teraz za sobą większą organizację z profesjonalnym zapleczem wsparcia technicznego. Wsparcie jest przecież podstawą każdego biznesu open source.
  8. Co więcej, po fuzji z SUSE, Rancher otrzymał ogromny zastrzyk zasobów inżynieryjnych. Projekty takie jak Harvester szybko stały się już gotowymi produktami.
  9. Nasi klienci zdecydowali się na zakup SUSE Ranchera, ponieważ w ich organizacjach już wcześniej korzystano z niego. Jest to po prostu fajny produkt dostępny na GitHub i zespoły programistów go uwielbiają!
  10. To jest ostatni atut, ale jaki! Klientom podoba się otwartość Ranchera i to, że nie odbiega on od “czystego” Kubernetesa. Podzielili się z nami informacją, że inni dostawcy narzucają swoje własne wersje Kubernetesa, co według nich jest dużą wadą!

Rancher Rodeo ponownie w Polsce! Praktyczne warsztaty z Kubernetesa

Thursday, 24 February, 2022

Zapraszamy 17 marca na pierwsze w tym roku Rancher Rodeo, które po raz pierwszy w całości będzie prowadzone w jęz. polskim. Rodeo to bezpłatne, intensywne warsztaty, których celem jest przekazanie zespołom DevOps oraz IT praktycznej wiedzy i umiejętności potrzebnych do wdrażania i zarządzania Kubernetesem w dowolnym środowisku.

Jeśli w Państwa zespole IT są osoby zainteresowane zdobyciem praktycznej wiedzy na temat Kubernetesa i kontenerów, nasz warsztat może być doskonałym sposobem na rozwinięcie niezbędnych umiejętności potrzebnych do wdrożenia wysoce dostępnych, dobrze monitorowanych i bezpiecznych klastrów Kubernetesa przy użyciu Ranchera.

W Rancher Rodeo ponownie można będzie wziąć udział zdalnie lub stacjonarnie w hotelu Marriott Warszawie, by na miejscu móc korzystać ze wsparcia osób prowadzących warsztaty. Niezależnie od formy udziału, konieczna jest rejestracja w celu otrzymania indywidualnego linku platformy warsztatowej HobbyFarm, na której będą prowadzone praktyczne ćwiczenia.

Warsztaty będą też okazją do briefingu o nowościach technologicznych, które pojawiły się już w tym roku. Przybliżymy możliwości rozwiązania Harvester do budowy infrastruktury hiperkonwergentnej (HCI) opartej na open source i jednoczesnego zarządzania kontenerami oraz maszynami wirtualnymi z poziomu Kubernetesa. Poznasz również Rancher Desktop udostępniający deweloperom produkcyjne środowisko Kubernetesa na ich desktopach.

Jest jeszcze jeden powód, by rozważyć udział warsztatach stacjonarnych. Rodeo organizujemy nie bez powodu 17 marca, w Dzień Św. Patryka. To najbardziej zielony dzień w roku na całym świecie! Z tej okazji zaraz po warsztatach, w godz. 14:00-16:00, zapraszamy na lunch i after party!

W programie warsztatów Rancher Rodeo

  • Briefing z nowości technologicznych Ranchera (Harvester, Rancher Desktop)
  • Wprowadzenie do warsztatów: architektura i koncepcje wdrażania systemów Docker i Kubernetes,
  • Instalacja i konfiguracja serwera Rancher,
  • Wdrażanie klastra Kubernetes, uruchamianie i udostępnianie aplikacji.

Zapraszamy do rejestracji!

Nowości SUSE z konferencji SUSECON 2021

Tuesday, 18 May, 2021

Dzisiaj na SUSECON 2021 pojawiły się ważne ogłoszenia SUSE dotyczące aktualizacji systemów SUSE Linux Enterprise i SUSE Rancher, nowych rozwiązań cloud-ready i cloud-native dla środowisk edge i hybrydowego IT, a także nowatorskich projektów open source, w tym Harvester, rozwiązania open source dla infrastruktury hiperkonwergentnej (HCI).

SUSE rozpoczęła dzisiaj konferencję SUSECON Digital 2021, w ramach której zaprezentuje najnowsze rozwiązania dla użytkowników systemów Linux, technologii Kubernetes, chmury, środowisk hybrydowego IT oraz systemów działających na krawędzi sieci (edge). Dzisiejszy dzień jest również pierwszym dla SUSE, któremu towarzyszą ważne ogłoszenia technologiczne od czasu przejęcia firmy Rancher Labs. Tegoroczny SUSECON potrwa jako wydarzenie online od 18 do 20 maja 2021 r. Oczywiście wszystkie sesje będę też dostępne także on-demand.  Trzeba tylko zarejestrować się na stronie wydarzenia www.susecon.com.

SUSECON Digital 2021

Tegorocznej konferencji towarzyszą liczne ogłoszenia zebrane w komunikacie dostępnym na stronie www.suse.com/pl-pl/news/SUSE-News-at-SUSECON-2021

Przede wszystkim SUSE zapewniła, że nadal będzie dostarczać w pełni otwarte, interoperacyjne rozwiązania.  Produkty SUSE są nie tylko oparte na oprogramowaniu otwartym, ale także są otwarte w prawdziwym tego słowa znaczeniu. Oznacza to, że oprogramowanie SUSE będzie zawsze współdziałać z wiodącymi produktami w branży, nawet z produktami konkurencji. Takie podejście jest zakorzenione w przekonaniu firmy, że klienci wtedy stają się najbardziej innowacyjni, gdy mają swobodę wyboru produktów, które ich zdaniem najlepiej odpowiadają potrzebom. SUSE dostrzega również, że wiele organizacji korzysta z heterogenicznych środowisk IT, wielu chmur, różnych dystrybucji Linuksa i dystrybucji Kubernetesa, w związku z czym SUSE nie stawia klientów pod ścianą i propozycją „bierzesz wszystko albo nic”. Zamiast tego klienci mają pełną swobodę wyboru rozwiązań na etapie definiowania strategii IT oraz elastyczność i łatwość jej dostosowania do aktualnych potrzeb.

Ogłoszenia produktowe

Podczas SUSECON poinformowano o wprowadzeniu istotnych udoskonaleń do oprogramowania SUSE Linux Enterprise i SUSE Rancher. Obie rodziny produktów stanowią przykład otwartego, interoperacyjnego podejścia firmy SUSE:

  • SUSE Linux Enterprise Server 15 Service Pack 3 (SLES 15 SP3)SLES 15 SP3 zapewni pełną zgodność binarną pomiędzy systemami openSUSE Leap i SUSE Linux Enterprise. Przykładowo, użytkownicy będą mogli bezproblemowo przenosić obciążenia ze środowisk rozwojowych i testowych (UAT, User Acceptance Testing) z systemem openSUSE Leap do środowisk produkcyjnych z systemem SLES 15 SP3 i z powrotem, z zapewnioną kompatybilnością dla uruchomionych na nich aplikacji. W ramach zapowiedzi, SUSE planuje wprowadzić oprogramowanie i usługi ułatwiające migrację do openSUSE Leap użytkownikom systemu CentOS, który nie jest już zgodny binarnie z żadną komercyjną dystrybucją Linuksa. Wraz z SLES 15 SP3 zostaje wprowadzone rozwiązanie SUSE Linux Enterprise Base Container Images (SLE BCI). Dostarcza ono prawdziwie otwarte, elastyczne i bezpieczne obrazy kontenerów oraz narzędzia do tworzenia aplikacji, z których programiści i integratorzy systemów mogą skorzystać natychmiast bez obawy o problemy z vendor lock-in, z którymi spotykają się w alternatywnych ofertach. Aby sprostać potrzebom rynków regulowanych, firma SUSE planuje udostępnić specjalnie utwardzone i certyfikowane obrazy SLE BCI. System SLES 15 SP3 zaoferuje obsługę najnowszych platform sprzętowych Intel, AMD, IBM Z i POWER, chipsetów ARM, ulepszoną obsługę i zwiększoną wydajność baz danych oraz wzmocnione bezpieczeństwo i ochronę danych dzięki zgodności ze standardem STIG i obsłudze kryptografii.
  • SUSE Rancher 2.6 – oprogramowanie to, znane już z niesamowitej łatwości obsługi, otrzyma nowy, czysty i przejrzysty interfejs użytkownika, który usprawni ogólne zarządzanie klastrami Kubernetesa, niezależnie od tego, czy zarządza się jednym czy milionem klastrów. SUSE Rancher 2.6 rozszerza wsparcie dla usług Kubernetes w chmurze publicznej i zapewni pełne zarządzanie cyklem życia w środowiskach Microsoft AKS i Google GKE, co stanowi istotne uzupełnienie do zapewnianego już wcześniej wsparcia dla Amazon EKS. Pełne zarządzanie cyklem życia wspiera klientów w korzystaniu z unikalnych zalet usług Kubernetes w każdej chmurze publicznej przy jednoczesnym wykorzystaniu spójnego zarządzania, zaawansowanych funkcji i narzędzi do automatyzacji dostarczanych przez SUSE Rancher. SUSE Rancher 2.6 wprowadzi również obsługę SLE BCI.

Ponadto SUSE poinformowała o wprowadzeniu całej rodziny otwartych, interoperacyjnych rozwiązań dla organizacji, które chcą wykorzystać w pełni portfolio rozwiązań SUSE:

  • SUSE Edge to otwarta, lekka infrastruktura programowa do tworzenia aplikacji chmurowych lub gotowych do pracy w chmurze (cloud-ready / cloud native), ich wdrażania na krawędzi sieci i zarządzania nimi. SUSE Edge łączy przetwarzanie na krawędzi z chmurami publicznymi i prywatnymi oraz centrami danych za pomocą narzędzi do automatyzacji, mechanizmów bezpieczeństwa i wspólnych ram zarządzania. Zawiera ultra-niezawodny, lekki system operacyjny Linux (SUSE Linux Enterprise Micro) oraz lekką dystrybucję oprogramowania Kubernetes (K3s). Obie technologie stworzono z myślą o środowiskach przetwarzania na krawędzi. Rozwiązanie SUSE Edge zawiera oprogramowanie SUSE Rancher do zarządzania skonteneryzowanymi obciążeniami w chmurze oraz system SUSE Manager do zarządzania nieskonteneryzowanymi obciążeniami z aplikacjami gotowymi do pracy w chmurze. Aby dowiedzieć się więcej, zajrzyj na nasz blog poświęcony rozwiązaniu SUSE Edge.
  • SUSE Hybrid IT to otwarte, interoperacyjne rozwiązanie składające się z oprogramowania SUSE Rancher, RKE, Longhorn, SUSE Manager i SLES. SUSE Hybrid IT oferuje kompletny stos oprogramowania niezbędny do uruchamiania zarówno aplikacji tradycyjnych, jak i aplikacji natywnych dla chmury – czy to we własnym centrum danych, czy w środowisku chmury. Aby dowiedzieć się więcej, zajrzyj na nasz blog poświęcony rozwiązaniu SUSE Hybrid IT.

Wymienione wyżej otwarte, interoperacyjne rozwiązania firmy SUSE zapewniają wiele korzyści, których nie da się osiągnąć w przypadku wdrażania pojedynczych systemów Linux i klastrów Kubernetes. Jednocześnie umożliwiają one klientom łączenie produktów pochodzących od innych niż SUSE producentów i w ten sposób stworzenie stosu technologicznego obejmującego rozwiązania od wielu dostawców bez obawy o tworzenie sztucznych barier związanych z przywiązaniem się wyłącznie do produktów SUSE.

Zapowiedzi i nowe projekty open source

SUSE poinformowała o wydaniu wersji beta Harvestera, otwartego oprogramowania hiperkonwergentnej infrastruktury zbudowanego na platformie Kubernetes. Harvester dostarcza nową generację HCI, zarządzając zarówno maszynami wirtualnymi, jak i kontenerami, a także umożliwiając migrację obciążeń pomiędzy chmurami i zarządzanie chmurami hybrydowymi wykorzystującymi chmury Amazon, Azure i Google Cloud. Obecnie tradycyjne środowisko HCI to de-facto standard dla chmury prywatnej, ponieważ zapewnia obsługę wirtualizacji, pamięci masowej i sieci w jednym, łatwym do wykorzystania pakiecie. SUSE uważa, że HCI dojrzało do tego, by zostać wyparte przez open source. Więcej o tym projekcie można dowiedzieć się tutaj.

Wszystkie te nowe produkty i rozwiązania są prezentowane podczas SUSECON 2021. Pełna lista sesji dostępna jest na stronie https://www.susecon.com/sessions.html