首页 列表 - 第 2 页

Solaris 10 SPARC 引导过程

Solaris 10 SPARC 引导过程 SPARC 平台的引导过程包括 5 个阶段,如下图所示。 基于 SPARC 和基于 x86/x64 的 Solaris 操作系统的引导过程略有不同。 启动 PROM 阶段 启动 PROM 运行开机自检 (POST) 以测试硬件。 开机PROM显示以下信息的banner 型号 处理器类型 内存 以太网地址和主机 ID Boot PROM 读

Views:0  2020-09-17

Solaris Zone:如何设置网络掩码

Solaris Zone:如何设置网络掩码 问题 如何为非全局Zone设置特定的网络掩码? 解决方法 要为非全局Zone定义某个网络掩码,请使用 zonecfg 命令。 网络地址是以下之一: 一个有效的 IPv4 地址,可选后跟“/”和前缀长度。 一个有效的 IPv6 地址,后面必须跟有“/”和前缀长度。 在全局Zone,进入Zone配置模式: global_zone # zone

Views:0  2020-09-17

Solaris Zones : 如何使用动态资源池更改 CPU 数量

Solaris Zones : 如何使用动态资源池更改 CPU 数量 Solaris 10/solaris 11 中的资源池提供了一种将处理器集和调度类分配给非全局区域的机制。 资源池框架如下图所示。 当我们在区域上具有可变负载并且想要动态更改对这些区域的资源分配时,动态资源池非常有用。 与上限 CPU 分配不同,对区域的动态资源池分配是在线的,并且可以随时在线更改。 注意:资源池是一个旧功能,现

Views:0  2020-09-17

Solaris ZFS:如何在存储池中指定热备件

Solaris ZFS:如何在存储池中指定热备件 什么是热备份( hot spare),它是如何工作的? ZFS 热备件功能使我们能够识别可用于替换一个或者多个存储池中的故障或者故障设备的磁盘。 将设备指定为热备用意味着该设备不是池中的活动设备,但如果池中的活动设备出现故障,热备用会自动替换故障设备。 我们可以在创建池时使用 zpool create 命令将设备指定为热备件,如果已创建池,则可

Views:0  2020-09-17

Solaris ZFS:如何脱机/联机/分离/更换存储池中的设备

Solaris ZFS:如何脱机/联机/分离/更换存储池中的设备 使存储池中的设备离线 当硬件不可靠或者运行不正常时,ZFS 会继续向设备读取或者写入数据,假设这种情况只是暂时的。 如果该情况不是暂时的,我们可以通过使设备脱机来指示 ZFS 忽略该设备。 我们可以使用 zpool offline 命令后跟池名称和设备名称使设备脱机。 在幻灯片的代码示例中,c1t0d0 设备脱机。 此设备位于名

Views:0  2020-09-17

Solaris ZFS:如何创建/重命名/回滚/销毁 ZFS 快照

Solaris ZFS:如何创建/重命名/回滚/销毁 ZFS 快照 创建和销毁 ZFS 快照 我们可以使用 zfs snapshot 命令创建快照,该快照将我们要创建的快照的名称作为其唯一参数。 在下面的示例中,我们正在创建名为 friday 的数据池/家庭/用户的快照。 # zfs snapshot datapool/home/user@friday 要销毁 ZFS 快照,请使用 zfs d

Views:0  2020-09-17

Solaris ZFS:如何导入 2 个具有相同名称的池

Solaris ZFS:如何导入 2 个具有相同名称的池 我们可能需要管理 2 个具有相同名称的池。 例如,如果我们有一个名为“datapool”的池,而另一个来自其他存储数组的名为“datapool”的池。 我们可能希望将第二个池(具有相同名称)导入系统。 ZFS 不允许系统有 2 个同名的池。 因此,我们必须将池中的一个重命名为其他名称。 导入同名池时有两种情况。 1. One pool is

Views:0  2020-09-17

Solaris ZFS 命令行参考

Solaris ZFS 命令行参考 池相关命令 命令 说明 # zpool create datapool c0t0d0 创建一个名为 datapool 的基本池 # zpool create -f datapool c0t0d0 强制创建池 # zpool create -m /data datapool c0t0d0 创建一个与默认安装点不同的池。 # zpool

Views:0  2020-09-17

ZFS 报错 cannot determine dependent datasets: recursive dependency

ZFS 报错 cannot determine dependent datasets: recursive dependency 问题 在销毁zfs数据集时,报错“cannot determine dependent datasets: recursive dependency”。 在以下情况下,克隆的来源 (datapool/ds1) 是其后代 (datapool/ds1/ds2) 的快照。

Views:0  2020-09-17

Solaris (x86) ZFS:如何替换 rpool 中出现故障的磁盘

Solaris (x86) ZFS:如何替换 rpool 中出现故障的磁盘 本文说明了为基于 x86 的系统更换 rpool 中故障磁盘的步骤。 假设c0t0d0和c0t1d0在ZFS rpool中有镜像,需要替换c0t1d0。 如下输出所示,c0t1d0 有很多错误,需要更换。 # iostat -En ... c0t1d0 Soft Errors: 0 Hard Err

Views:0  2020-09-17

Solaris:如何截断 wtmpx 文件

Solaris:如何截断 wtmpx 文件 Solaris wtmpx文件很大,是否可以清除? 如何清理Solaris wtmpx文件? 如何清除wtmpx文件,只保留最近一段时间的记录? 如果登录系统时,很慢。可能的原因是,wtmpx 文件在增长,填满 /var 分区(通常是根分区的一部分)。 在极端情况下,它甚至可能阻止登录的可能性,因为无法进行 utmpx 条目,并且 login 要求用户从

Views:0  2020-09-17

Solaris Volume Manager (SVM):在线增长 RAID 5 元设备

Solaris Volume Manager (SVM):在线增长 RAID 5 元设备 在下面的示例中,我们有一个 3 列 RAID5 元设备 d10 [大小 1GB],其中包含 3 个磁盘 c5t23d0s1. c5t24d0s1. c5t25d0s1. 增加 RAID 5 元设备 d10 的高级步骤是: 将新磁盘作为串联设备添加到 RAID 5 元设备。 在线增长文件系统。 一旦

Views:0  2020-09-17

Solaris Volume Manager (SVM):在线扩大镜像元设备

Solaris Volume Manager (SVM):在线扩大镜像元设备 下面显示的示例使用元设备 d3,它是一个 33Gb 镜像,带有已挂载的文件系统。 扩展镜像元设备 d3 的步骤包括: 将另外 2 个子镜像(较大的 d32 和 d33)添加到父元设备 d3. 同步后分离旧的子镜像 d30 和 d31. 增加父元设备 d3 以反映新的大小。 扩大文件系统。 安装 2

Views:0  2020-09-17

Solaris SVM 中相关的配置文件

Solaris SVM 中相关的配置文件 /etc/lvm/md.tab 文件默认为空。 该文件仅在管理员发出 metainit 命令时使用。 它是手动配置的。 可以通过添加#metastat -p 的输出来填充它。 例如#metastat -p >> /etc/lvm/md.tab。 可用于一次性重新创建所有元设备。 最适合用于 SVM 配置的恢复。 例如 # met

Views:0  2020-09-17

Solaris Volume Manager (SVM) 命令行参考

Solaris Volume Manager (SVM) 命令行参考 SVM 配置文件 /etc/lvm/md.tab 文件默认为空。 该文件仅在管理员发出 metainit 命令时使用。 它是手动配置的。 可以通过添加#metastat -p 的输出来填充它。 例如#metastat -p >> /etc/lvm/md.tab。 可用于一次性重新创建所有元设备。 最适

Views:0  2020-09-17

Solaris Volume Manager (SVM) 增大串联的元设备

Solaris Volume Manager (SVM) 增大串联的元设备 在下面显示的示例中,串联的元设备 d80 使用大小为 1 GB 的切片 c1t3d0s0 进行配置。 发展这个元设备的高级步骤是: 卸载元设备上的文件系统(如果有)。 增加元设备正在使用的磁盘分区的大小。 重新创建元设备。 扩大文件系统。 调整大小操作处于离线状态,必须通过卸载文件系统来完成 # met

Views:0  2020-09-17