[ English | 日本語 | Deutsch | Indonesia ]

用例

本附录包含来自社区的一些用例,比通常情况更详细。更多示例可以在 OpenStack 网站 上找到。

NeCTAR

谁在使用:来自澳大利亚公共资助研究部门的研究人员。用途涵盖各种学科,实例的目的是从运行简单的 Web 服务器到使用数百个核心进行高吞吐量计算。

部署

使用 OpenStack Compute 单元,NeCTAR 研究云跨越八个站点,每个站点大约有 4,000 个核心。

每个站点运行不同的配置,作为 OpenStack Compute 单元设置中的资源单元。一些站点跨越多个数据中心,一些使用与共享文件系统配合的计算节点外部存储,一些使用与非共享文件系统配合的计算节点内部存储。每个站点都部署 Image 服务,并使用 Object Storage 作为后端。使用中央 Identity、dashboard 和 Compute API 服务。登录 dashboard 会触发与 Shibboleth 的 SAML 登录,这会在 Identity 服务中创建一个帐户,该服务使用 SQL 作为后端。多个站点使用 Object Storage 全局集群。

计算节点具有 24 到 48 个核心,每个核心至少有 4 GB 的 RAM,大约有 40 GB 的临时存储空间。

所有站点都基于 Ubuntu 14.04,KVM 作为虚拟机监控程序。使用的 OpenStack 版本通常是当前稳定版本,并回移植了 trunk 中的 5 到 10% 的代码和修改。

资源

MIT CSAIL

谁在使用:来自麻省理工学院计算机科学与人工智能实验室的研究人员。

部署

CSAIL 云目前有 64 个物理节点,总共 768 个物理核心和 3,456 GB 的 RAM。持久数据存储主要在云外部的 NFS 上,云资源侧重于计算资源。有超过 130 个用户在 40 多个项目中,通常运行 2,000–2,500 个 vCPU 在 300 到 400 个实例中。

我们最初在 Ubuntu 12.04 上部署,使用 Essex 版本 OpenStack 和 FlatDHCP 多宿主网络。

软件堆栈仍然是 Ubuntu 12.04 LTS,但现在使用来自 Ubuntu Cloud Archive 的 OpenStack Havana。KVM 是虚拟机监控程序,使用 FAI 和 Puppet 进行配置管理。FAI 和 Puppet 组合在整个实验室范围内使用,而不仅仅是 OpenStack。

使用主机聚合和实例类型附加规格来提供两种不同的资源分配比率。我们使用的默认资源分配比率是 4:1 CPU 和 1.5:1 RAM。计算密集型工作负载使用需要非超售主机的实例类型,其中 cpu_ratioram_ratio 都设置为 1.0。由于我们的计算节点启用了超线程,这为每个 CPU 线程提供一个 vCPU,或每个物理核心两个 vCPU。

在 2013 年 8 月升级到 Grizzly 后,我们迁移到 OpenStack Networking,neutron(当时是 quantum)。计算节点具有两个千兆网络接口和一个单独的管理卡用于 IPMI 管理。一个网络接口用于节点到节点通信。另一个用作 OpenStack 管理 VLAN 的 trunk 端口。控制器节点使用两个绑定 10g 网络接口进行公共 IP 通信。这里使用大管道,因为镜像通过此端口提供,并且它也用于连接到 iSCSI 存储,作为镜像存储和数据库的后端。控制器节点还有一个千兆接口,以 trunk 模式用于 OpenStack 管理 VLAN 流量。此端口处理到 dhcp-agent 和 metadata-proxy 的流量。

我们通过使用“提供商 VLAN 网络”来近似旧的 nova-network 多宿主 HA 设置,这些网络将实例直接连接到现有的可公开寻址的网络,并使用现有的物理路由器作为默认网关。这意味着如果我们的网络控制器发生故障,正在运行的实例仍然可以使用其网络,并且没有单个 Linux 主机成为流量瓶颈。我们能够做到这一点,因为我们有足够的 IPv4 地址来覆盖所有实例,因此不需要 NAT 并且不使用浮动 IP 地址。我们为所有项目提供单个通用的公共网络,并根据需要为每个项目提供额外的现有 VLAN。个人项目也允许创建自己的基于 GRE 的私有网络。

资源

DAIR

谁在使用:DAIR 是一个集成的虚拟环境,利用 CANARIE 网络来开发和测试新的信息通信技术 (ICT) 和其他数字技术。它结合了先进的网络、云计算和存储等数字基础设施,为开发和测试创新的 ICT 应用程序、协议和服务创造环境;进行大规模实验以进行部署;并促进更快的上市时间。

部署

DAIR 托管在加拿大两个不同的数据中心:一个在艾伯塔省,另一个在魁北克省。它在每个位置都有一个云控制器,尽管,一个被指定为“主”控制器,负责中央身份验证和配额。这是通过自定义脚本和对 OpenStack 的轻微修改完成的。DAIR 目前正在运行 Havana。

对于 Object Storage,每个区域都有一个 swift 环境。

每个区域都使用 NetApp 设备进行块存储和实例存储。未来计划将实例迁移到 NetApp 设备,并迁移到诸如 Ceph 或 GlusterFS 等分布式文件系统。

VlanManager 被广泛用于网络管理。所有服务器都有两个绑定 10GbE NIC,连接到两个冗余交换机。DAIR 设置为使用单节点网络,其中云控制器是所有计算节点上所有实例的网关。内部 OpenStack 流量(例如,存储流量)不通过云控制器。

资源

CERN

谁在使用:在 CERN(欧洲核子研究组织)进行高能物理研究的研究人员。

部署

该环境主要基于 Scientific Linux 6,该系统与 Red Hat 兼容。我们使用 KVM 作为主要的虚拟机监控程序,尽管正在使用 Hyper-V 在 Windows Server 2008 上进行测试。

我们使用 Puppet Labs OpenStack 模块来配置 Compute、Image 服务、Identity 和 dashboard。Puppet 被广泛用于实例配置,Foreman 被用作报告和实例配置的 GUI。

用户和组通过 Active Directory 管理并导入到 Identity 服务中使用 LDAP。有可用的 nova 和 Euca2ools CLI 来执行此操作。

目前 CERN 运行着三个云,总共约 4,700 个计算节点,约 120,000 个核心。CERN IT 云的目标是到 2015 年扩展到 300,000 个核心。

资源