标签: ESXi

  • 在 VMware ESXi 中安装 OmniOS

    〇、获取安装文件

    第〇步,当然是搞一个安装文件回来

    http://omnios.omniti.com/wiki.php/Installation ,弄一个当前稳定版或者 LTS 版本。

    截至发稿,当前 LTS/Stable 版本为 r151014,相应的 ISO 文件链接为: <a href="http://omnios.omniti.com/media/OmniOS_Text_r151014.iso">http://omnios.omniti.com/media/OmniOS_Text_r151014.iso</a>

    记得校验一下: md5 (OmniOS_Text_r151014.iso) = 796fbfe1305f0e4922e9cf627d3e67c2 sha1 (OmniOS_Text_r151014.iso) = ff91fbfa2b01ca9ac61d5812570109c640c1ddd1

    下载回来之后,用 ssh/scp 或者 vSphere Client 等将光盘镜像文件上传到 ESXi 的 datastore 中。

    一、创建 ESXi 虚拟机

    以下以 ESXi 5.5 为例。

    选择自定义创建。 esxi-customize

    OS 类型选择 Oracle Solaris 10 (64-bit)esxi-ostype

    网卡类型选择 VMXNET3esxi-nic

    SCSI 控制器选择 LSI Logic Parallelesxi-scsi

    新建磁盘。如果只需要 OmniOS,那么新建一个 5GB 的磁盘就够了。OmniOS 官方建议 4.1 GB,最小 2.1 GB。为了升级及临时文件等需要,还是适当放宽一些。如果后续需要安装 Napp-it 作为上层的存储应用系统,那么建议的磁盘大小是 25GB。

    在启动前,对虚拟机配置最后做一下编辑。首先是挂载 OmniOS 系统安装光盘镜像,并选择 Connect at power onesxi-cdrom

    虚拟机的创建即告完成。

    二、安装 OmniOS

    乏善可陈,基本上 F2(下一步)、F2、F2 … 就完成了。好吧,我们的重点在于后续的 VMXNet3 万兆网卡的配置。

    OmniOS 安装完成后,root 密码默认为空,需要你设置密码,及创建新普通用户用于 SSH 登录,或者修改 SSHd 配置文件允许 root 登录之类 balabala….

    01-emptypwd

    三、安装 VMware Tools 及 VMXNet3 网卡

    OmniOS 没有自带 VMXNet3 网卡驱动,因此到了当前这步时,咱们是没有网络可用的,需要安装相关驱动。

    首先,断开安装 OS 时为虚拟机挂接上的光驱设备。

    VM -> Edit Settings

    取消光驱设备的 ConnectedConnect at power on 选项。如果提示锁定之类的,直接点选 Yes 强制解除锁定即可。 2015-04-09_14-18-09

    随后在控制台用以下命令开启 OmniOS 的即插即用服务。

    svcadm enable hotplug

    VM -> Guest -> Install/Upgrade VMware Tools

    安装 VMware Tools 这个过程,VMware 是以向虚拟机挂载软件光盘,并尝试自动启动安装进程来进行的,遗憾的是,Solaris 类型的客户机并不能自动挂载光驱,还得手动操作一下。

    先找出光驱设备名

    ls –l /dev/dsk | grep ide | grep c\*s2

    上图中的设备节点 c1t0d0s2,就是我们要找的东西,下面的命令则需要根据你的实际情况来调整。挂载光驱设备:

    mount –F hsfs –o ro /dev/dsk/c1t0d0s2 /media

    解压展开 VMware Tools 安装文件:

    cd /tmp
    tar zxvf /media/vmware-solaris-tools.tar.gz
    cd vmware-tools-distrib
    ./vmware-install.pl

    提示的所有问题,都用默认值回答,也就是一路狂按 Enter 键。

    VMware Tools 安装完成之后,网卡驱动也随之就绪,我们可以开始配置网卡了。

    dladm show-link

    02-nic

    网卡设备 vmxnet3s0 state unknow,为不可用状态。我们为其添加 IP interface

    ipadm create-if vmxnet3s0

    接下来为该 Interface 添加 IP 地址等参数:

    ipadm create-addr –T static –a /24 vmxnet3s0/v4

    这时,你再使用 dladm show-link 及 dladm show-phys,应该会得到以下输出: 2015-04-09_14-46-45

    设置默认网关路由:

    route –p add default 

    指定 DNS 解析服务器并激活:

    echo 'nameserver ' >> /etc/resolv.conf
    cp /etc/nsswitch.dns /etc/nsswitch.conf

     

    大功告成,OmniOS 安装告一段落。

    对了,建议参照 OmniOS Shell Env Check List 所述,对 OS 环境进行设置以改善操作体验。

  • VMware 下 CoreOS OVA 镜像的安装与配置

    此文提供了在 VMware ESXi/Workstation/Fusion 上安装 CoreOS ova 镜像及其基本配置的有关信息,并以 CoreOS release 557 为例。

    CoreOS 是一个新的 Linux 分发版本,它设计用来为集群部署提供基础架构。

    本文包含以下主题:

    • 安装介绍
    • 集成 Open VM Tools

    安装介绍

    从版本 540.0.0 开始,CoreOS 引入了对虚拟机 OVA 格式的支持。作为推荐的方式,以下安装指引也只面向 OVA 镜像。

    前置需求

    检验是否完成以下步骤:

    • Read General Installation Instructions for All VMware Products.
    • Read General Knowledge for CoreOS at https://coreos.com/docs/quickstart/.

    注:

    安装步骤

    1、将文件 coreos_production_vmware_ova.ova 上传到 Workstation/Fusion/ESXi 的 Datastore。

    2、部署 CoreOS 虚拟机到 VMware。

    在 VMware Workstation 或 Fusion 上部署 CoreOS 虚拟机:

    1、打开文件 coreos_production_vmware_ova.ova 所处位置,并用 VMware Workstation 或 Fusion 打开。 2、编辑其名称及存储路径,然后点击导入/Import 按钮。 3、当遇到以下警告信息时,点击重试/Retry 按钮。 retry

    在 VMware vSphere 上部署 CoreOS 虚拟机:

    1、打开 vShere C# 客户端,或使用任何能连接到 vCenter Server 的 vSphere C# Client 或 vSphere Web Client,并连接至你的 ESXi 实例。 2、浏览至 文件/File -> 部署 OVF 模板/Deploy OVF Template,并点击浏览并定位到 coreos_production_vmware_ova.ova 所处的路径。 3、继续余下的步骤以完成虚拟机创建。

    3、CoreOS 虚拟机的自动登录。

    执行以下步骤以访问 CoreOS 虚拟机:

    1、打开 CoreOS 虚拟机电源,并打开控制台。 2、当 Boot Loader 提示出现的时候,按下 e 键来编辑 GRUB 菜单。 3、添加 coreos.autologin 作为启动参数,并 Ctrl-x 或 F10 重启。这将使控制台跳过登录提示并直接进入用户 core 的 shell。 autologin 4、给用户 core 设置密码用以 SSH 访问。 ssh

    4、Cloud-Config 文件

    注:Cloud-config 文件位于 /usr/share/oem/cloud-config.yml 。访问 Cloud-Config Validator ,或者运行 coreos-cloudinit -validate 以验证 cloud-config 在该 CoreOS 虚拟机中可用。

    1、为用户 core 设置 SSH 公钥。 2、从你的客户端生成一个新的 SSH key。 ssh-keygen -t rsa 3、输入一个 passphrase,并检查 id_rsa 和 id_rsa.pub 是否已经生成。 4、检查 CoreOS 虚拟机的 IP 地址。 5、登录到 CoreOS 虚拟机并编辑 /usr/share/oem/cloud-config.yml 文件。 cloudconfigyml 6、拷贝 RSA 公钥 id_rsa.pub 的内容到 ssh_authorized_keys 里。 ssh-rsa [id_rsa.pub.content.here] sshkey 7、重启 CoreOS 虚拟机并用 RSA 私钥校验是否能登录。 [root@localhost .ssh]# ssh -i id_rsa core@[your.ip.address.here] sshlogin

    更多关于cloud-config自定义的信息,请参考 cloud-config 指南

    完成首台虚拟机 user_data 自定义之后,你就可以部署更多的 CoreOS 虚拟机来设置 CoreOS 集群。

    Open VM Tools

    CoreOS 490.0.0 及其后版本已包含 open-vm-tools —— VMware Tools 的开源实现。更多信息,参考 VMware support of open-vm-tools (2073803)

  • 关于在ESXi环境下使用VM做HTPC系统

    首先要说的就是,这会非常蛋疼。

    但是本着没有困难创造困难也要上的精神,这里也从理论上探讨一下。

    目标是在ESXi下,使用Windows VM作为HTPC系统平台。

    (更多…)

  • ESXi 中为 VM 直通挂载本地 SATA 硬盘 (RDM)

    VMware ESXi 会先将存储设备格式化 VMFS-5(一种存储池管理格式,与 LVM 等类似),然后给虚拟机分配使用,对于即将安装的操作系统来讲,这相当于一个实际的物理硬盘,操作系统会再一次对这个“硬盘”格式化,而当一个物理硬盘出现部分数据损坏后,你是没办法拿到新电脑上直接访问里面的数据的。如果你基于 ESXi 来打造一个 NAS 家用存储系统时,比如希望安装 OmniOS/napp-it/NexentaStor/FreeNAS 之类的,系统也是推荐使用整个整个的硬盘来作为存储基础单元,而不推荐使用虚拟磁盘或磁盘分区之类。

    作为虚拟化领域的领导厂商,VMware 当然也考虑到了这个问题,ESXi 支持设备的直通,包括各种 PCIe 设备(需要 ESXi 基础硬件的某些虚拟化特性,如 VT-D/IOMMU 等支持)。对于存储,官方的 RDM 一般只有通过认证的 RAID/SCSI 卡或 iscsi/SAN 存储设备才可以 RDM。不过无论如何,直接访问主板上连接的硬盘驱动器都不被官方支持。

    那么,怎样才能让 ESXi 中的虚拟机直接访问主板挂载的 SATA 硬盘呢?这就需要我们另辟蹊径了。

    首先你得熟悉命令行操作,知道如何使用终端管理工具,使用 SSH 或 ESXi 控制台进入 ESXi 的 Shell 界面。

    第一步得找到需要映射的 RAW 驱动器名称:

    ls /dev/disks
    

    在我这边,有 4 块西数 4T SATA 红盘需要做 RDM:

    t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E536ULXV
    t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E7FYF8ZL
    t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4ECXUD802
    t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4EFSNCRU3
    

    在 ESXi datastore 中建立硬盘标识文件,该文件也是以 vmdk 为后缀,不过它只以文本方式保存了硬盘 RAW 信息。

    vmkfstools -z /vmfs/devices/disks/<前面找到的RAW名称> <存储RDM映射文件的路径>/<RDM映射文件名>.vmdk
    

    完成后,我这边的文件之一的内容是:

    # Disk DescriptorFile
    version=1
    encoding="UTF-8"
    CID=bbd41d1e
    parentCID=ffffffff
    isNativeSnapshot="no"
    createType="vmfsPassthroughRawDeviceMap"
    
    # Extent description
    RW 7814037168 VMFSRDM "WD-36ULXV-rdmp.vmdk"
    
    # The Disk Data Base 
    #DDB
    
    ddb.adapterType = "lsilogic"
    ddb.geometry.cylinders = "486401"
    ddb.geometry.heads = "255"
    ddb.geometry.sectors = "63"
    ddb.longContentID = "8a320d912c71ea70e95daffcbbd41d1e"
    ddb.toolsVersion = "0"
    ddb.uuid = "60 00 C2 90 83 11 65 46-b3 92 b2 53 25 66 8d b3"
    ddb.virtualHWVersion = "10"
    

    接下来,在 vSphere Client 中编辑虚拟机配置,以添加现有虚拟磁盘的方式,选择刚刚创建的 RDM 映射文件就 OK 了。

  • SOHO NAS 折腾 – HP ProLiant MicroServer N40L

    杂凑大纲:

    需求篇

     

    硬件篇

    内存、SATA扩展、线缆、网卡、光驱位扩展、硬盘

    软件篇

    操作系统底层

    Server OS or ESXi

    ZFS及NexentaStor/NAS4Free/FreeNAS

    Windows

    (更多…)