Please enter search query.
Search <book_title>...
Veritas Access 版本说明
Last Published:
2018-05-28
Product(s):
Access (7.4)
Platform: Linux
- Veritas Access 概述
- 已解决的问题
- 软件限制
- 已知问题
- Veritas Access 已知问题
- 备份问题
- CIFS 问题
- 重复数据删除问题
- Enterprise Vault 连接的已知问题
- FTP 问题
- GUI 问题
- 安装和配置问题
- 重新启动使用 RDMA LLT 的节点后,LLT 不起作用,或 gabconifg –a 命令显示危险状态
- 运行各个 Veritas Access 脚本时可能会返回不一致的返回代码
- SSH 连接断开时使用安装程序配置 Veritas Access 失败
- 使用响应文件配置 Veritas Access 时,从配置中排除 PCI 失败
- 在 I/O 防护配置期间初始化磁盘之后,安装程序没有立即列出已初始化的磁盘
- 如果同一驱动节点同时用于两个安装,则第二个安装显示第一个安装的进度状态
- 如果同一驱动节点同时用于两个或多个安装,则第一个安装会话将终止
- 当从属节点处于重新启动、关闭或崩溃状态时,如果运行 Cluster> show 命令,则从属节点将引发异常
- 如果为 PCI 排除添加重复的 PCI ID,Cluster> add node name 命令将会失败
- 如果从群集节点开始使用响应文件进行安装,则安装会话在配置 NIC 阶段完成后终止
- 完成系统验证检查之后,安装程序显示一条有关缺少第三方 RPM 的警告消息
- 使用 installaccess 命令从群集节点中安装和配置该产品时,安装程序看上去会挂起
- 滚动升级的第 1 阶段在第一个节点上完成之后,在第二个节点上出现崩溃
- 如果在完成群集配置之后从 CLISH 创建另一个 VLAN 设备,则 VLAN 设备的虚拟组不会联机
- 如果在系统上预配置 LDAP 或 autofs 主目录,Veritas Access 安装会失败
- 在 RHEL 7.3 上执行从 Veritas Access 7.3.0.1 到 7.4 的滚动升级时,在节点升级到 Veritas Access 7.4 后,CIFS 服务进入故障状态
- 完成 Veritas Access 安装后,安装程序不会清除触发安装的 Veritas Access 节点上驱动节点的 SSH 密钥。
- 如果节点的 yum 存储库较旧,且没有 Internet 连接,无法访问 RHN 存储库,则 Veritas Access 安装将失败
- 在滚动升级后,某些虚拟组不会联机
- 在执行滚动升级后,节点上的协议版本不同
- 使用预配置的 VLAN 和预配置的绑定安装 Veritas Access 失败
- 国际化 (I18N) 问题
- 网络问题
- NFS 问题
- 使用 NFS-Ganesha 版本 4 的 Solaris 10 客户端性能低下
- 使用 Linux 客户端的 NFS-Ganesha 的随机写入性能降低
- 如果节点之间的时间不同步,则客户端无法查看服务器的最新目录内容
- 如果重新启动群集节点,则 NFS> share 可能会在一段时间内将共享列为故障状态
- 导入 NFS 配置后,NFS-Ganesha 共享出现故障
- 当共享数超过 500 时,NFS-Ganesha 共享可能不会联机
- 通过多次导出将单个路径导出到多个客户端对 NFS-Ganesha 不起作用
- 对于 NFS-Ganesha 服务器,将大量共享设为联机或脱机需要较长时间
- NFS 客户端应用程序可能会在节点重新引导时失败并显示文件句柄过时错误
- NFS> share show 命令不区分脱机共享与联机共享
- NFS> share show 与 Linux showmount 命令的输出存在差异
- 在切换 NFS 服务器之后,客户端上的 NFS 装入会暂停
- 在节点崩溃的情况下无法正确地进行内核 NFS v4 锁故障转移
- 网络组的内核 NFS v4 导出装入无法正常运行
- 用于 IPv6 子网的 NFS-Ganesha 共享无法工作,NFS 共享进入故障状态
- ObjectAccess 问题
- 尝试通过 SSLS3 连接到 S3 服务器时,客户端应用程序可能会发出类似于“SSL3_GET_SERVER_CERTIFICATE:certificate verify failed”的警告
- 如果已从早期版本升级到 Veritas Access 7.4,而且群集名称包含大写字母,则对 S3 服务器的访问将失败
- 如果群集名称未遵循 DNS 主机名限制,则无法在 Veritas Access 中使用 ObjectAccess 服务
- 创建存储桶可能失败并显示超时错误
- 删除存储桶可能失败并显示“No such bucket”或“No such key”错误
- 如果组名中包含空格,则组配置在 ObjectAccess 中不起作用
- 在 OpenDedup 从 Veritas Access 7.3.0.1 升级到 7.4 后,对现有存储桶运行 Objectaccess> bucket show 命令时,输出中未显示池名称
- 如果启用了 SSL,则在 get_object API 中使用 portald 时会发生崩溃,同时发送有关负载较大的响应
- OpenDedup 问题
- 删除 OpenDedup 卷后不回收文件系统存储
- Storage> fs online 命令失败并显示 EBUSY 错误
- 对使用单个存储桶且装入在两个不同介质服务器上的 OpenDedup 卷运行 df-h 命令时,输出不匹配
- 如果 OpenDedup> volume create 命令在执行期间失败,不会还原所做更改
- 升级后,其中一些 OpenDedup 卷统计数据重置为零
- OpenDedup 卷装入操作失败并显示错误
- 从 AWS Glacier 还原数据失败
- 在升级 OpenDedup 后,如果群集名称发生更改,则 OpenDedup 卷不会联机
- 如果 OpenDedup 位于介质服务器上且正在运行还原作业,则重新启动 Veritas Access 主节点时,还原的文件可能处于不一致状态
- OpenDedup> volume list 命令可能不显示卷的节点 IP
- OpenStack 问题
- 复制问题
- 在相同源上运行间歇性复制和重复数据删除时,间歇性复制文件系统在某些情况下会失败
- System> config import 命令无法导入间歇性复制密钥和作业
- 作业在间歇性复制故障转移之后使用目标上的调度
- 如果目标节点进行故障转移,则间歇性复制失败并显示错误“connection reset by peer”
- 升级后无法识别在 Veritas Access 7.2.1.1 或更低版本中创建的间歇性复制作业
- 对于间歇性复制,不支持通过 GUI 设置带宽
- 在执行作业移除和添加链接操作后,加密的间歇性复制作业失败,并显示 SSL 证书错误
- 间歇性复制作业状态显示已移除链接的条目
- 间歇性复制作业修改失败
- 间歇性复制故障转移不起作用
- 在目标上手动重新启动 had 后台驻留程序时连续性复制失败
- 如果存储复制日志已满,则连续性复制无法进入复制状态
- 如果群集节点之间的 IPTABLE 规则通信不正常,则连续性复制中的计划外故障转移和故障回退可能会失败
- 如果连续性复制 IP 在主节点上未处于联机状态,而在另一个节点上处于联机状态,则连续性复制配置可能会失败
- 如果重新启动主群集或辅助群集中的任何节点,复制可能会进入 PAUSED 状态
- SDS 已知问题
- SmartIO 问题
- 存储问题
- 如果设置快照配额,快照装入可能会失败
- 有时 Storage> pool rmdisk 命令不会输出消息
- Storage> pool rmdisk 命令有时会显示错误,指出未输出文件系统名称
- 无法为新添加到 CIFS 主目录列表中的文件系统启用配额
- 销毁文件系统可能不会移除装入点的 /etc/mtab 条目
- Storage> fs online 命令返回错误,但文件系统在几分钟后处于联机状态
- 如果存在 DCO,则从池中移除磁盘失败
- 即使 df 命令显示文件系统中有可用空间,横向扩展文件系统仍会返回 ENOSPC 错误
- 在运行 Storage> fs growby 或 growto 命令之后运行回滚时,回滚刷新失败
- 如果导出的 DAS 磁盘处于错误状态,使用 Storage> list 时,它在本地节点上显示 ERR,在远程节点上显示 NOT_CONN
- 禁用 I/O 防护时,在管理服务关闭的情况下群集状态不一致
- Storage> tier move 命令无法对节点进行故障转移
- Storage> scanbus 操作在 I/O 防护操作时挂起
- 当相关的缓存对象已满时,回滚服务组进入故障状态且无法清除该状态
- 当缓存对象已满时,未生成事件消息
- Veritas Access CLISH 界面不应允许同时在相同文件上运行解压缩和压缩操作
- 存储设备出现故障并显示 SIGBUS 信号,导致横向扩展文件系统后台驻留程序异常终止
- 如果重新引导群集节点之一,Storage> tier move list 命令将会失败
- 指定为 Storage> fs policy add 过滤条件的模式有时会错误传输不符合条件的文件
- 在发出 Storage> fs policy resume 之后完成策略运行时,总数据量和文件总数可能与 Storage> fs policy 状态中显示的移动数据量和文件计数不匹配
- Storage> fs addcolumn 操作失败,但不发送错误通知
- Storage> fs-growto 和 Storage> fs-growby 命令返回独立磁盘错误
- 存在分层时,无法创建空间优化回滚
- 针对包含 Volume Manager 对象的设置启用 I/O 防护将无法导入磁盘组
- 池仅包含一个磁盘时创建文件系统失败
- 启动备份服务后,BackupGrp 在某些节点上进入 FAULTED 状态
- 使用精简 LUN 创建简单布局的横向扩展文件系统可能会在 Storage> fs list 命令中显示分层布局
- 使用 largefs-striped 或 largefs-mirrored-stripe 布局创建的文件系统可能会在 Storage> fs list 命令中显示错误的列数
- 使用 SSD 池创建文件系统失败
- 执行 Storage> fencing off/on 命令后,横向扩展文件系统可能会进入故障状态
- 将 Azure 层添加到横向扩展文件系统后,无法将文件移至 Azure 层,且 Storage> tier stats 命令可能会失败
- 重新启动管理控制台节点后,CVM 服务组进入故障状态
- 如果群集的其中一个节点处于未知状态,Storage> fs create 命令无法正确显示输出
- 如果文件系统或存储桶的大小已满,Storage> fs growby 和 Storage> fs growto 命令将失败
- 为 NetBackup 配置 S3 存储桶时,如果设备保护选为纠删码且故障域选为磁盘,则存储桶创建操作将失败
- 防护磁盘的操作系统名称在 Veritas Access 群集中不一致,这可能会导致出现问题
- 启用了防护时,磁盘组导入操作失败,且所有服务会进入故障状态
- 创建纠删码文件系统时,在执行 Storage> fs create 命令过程中显示一条误导消息,导致出现问题
- 在 Veritas Access 群集节点恢复期间,如果在重新启动后有另一个节点加入群集,可能会从群集中显式弹出或中止该节点
- 系统问题
- 目标问题
- Veritas Access 已知问题
- 获取帮助
启用了防护时,磁盘组导入操作失败,且所有服务会进入故障状态
如果磁盘不与 SCSI-3 兼容,则必须从 Volume Manager 端关闭 SCSI-3 永久保留查询。否则,当您尝试启用防护时,所有服务都会进入故障状态。
解决办法:
您可以按照以下任一方法对非 SCSI3 磁盘启用防护。
使用 cluster> reboot all 命令对非 SCSI3 磁盘启用防护
- 在未启用防护的情况下安装 Veritas Access。
- 在所有节点上执行 vxdctl scsi3_pr off。
- 通过 CLISH 执行 Cluster> reboot all。
- 在系统重新启动后,通过 CLISH 执行 Storage> fencing on majority。
- 创建池和文件系统。
在不重新启动的情况下对非 SCSI3 磁盘启用防护
- 停止群集服务。
# hastop -all
- 在所有服务都关闭后,在群集中的所有节点上关闭 SCSI3 永久保留。
# vxdctl scsi3pr off
- 获取 vxconfigd 的进程 ID,并在群集的所有节点上终止 vxconfigd 进程。
- 在群集的所有节点上重新启动 vxconfigd。
# /sbin/vxconfigd -k -x syslog
- 启动群集的所有节点。
# vxclustadm -m vcs startnode
等待导入磁盘组。
- 在群集的所有节点上启动 HA 服务。
#hastart
现在,您可以启用防护。