openstack-manuals/doc/ha-guide/source/locale/ja/LC_MESSAGES/ha-guide.po
OpenStack Proposal Bot 8120c825fc Imported Translations from Zanata
For more information about this automatic import see:
https://wiki.openstack.org/wiki/Translations/Infrastructure

Change-Id: I9e7436183fbb48195404bd044d19954988329771
2016-07-21 06:59:41 +00:00

4384 lines
206 KiB
Plaintext
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# Akihiro Motoki <amotoki@gmail.com>, 2016. #zanata
# KATO Tomoyuki <kato.tomoyuki@jp.fujitsu.com>, 2016. #zanata
# Yuta Hono <yuta.hono@ntt.com>, 2016. #zanata
msgid ""
msgstr ""
"Project-Id-Version: High Availability Guide 0.0.1\n"
"Report-Msgid-Bugs-To: \n"
"POT-Creation-Date: 2016-07-20 22:31+0000\n"
"MIME-Version: 1.0\n"
"Content-Type: text/plain; charset=UTF-8\n"
"Content-Transfer-Encoding: 8bit\n"
"PO-Revision-Date: 2016-06-21 12:19+0000\n"
"Last-Translator: Yuta Hono <yuta.hono@ntt.com>\n"
"Language-Team: Japanese\n"
"Language: ja\n"
"X-Generator: Zanata 3.7.3\n"
"Plural-Forms: nplurals=1; plural=0\n"
msgid "**Cluster Address** List the IP addresses for each cluster node."
msgstr "**クラスターアドレス** 各クラスターノードの IP アドレスを表示します。"
msgid "**Cluster Name** Define an arbitrary name for your cluster."
msgstr "**クラスター名** 任意のクラスターの名前を定義します。"
msgid "**Corosync configuration file fragment for unicast (corosync.conf)**"
msgstr "**ユニキャスト向け Corosync 設定ファイルの断片 (corosync.conf)**"
msgid "**Data loss**"
msgstr "**データロス**"
msgid "**Example Corosync configuration file for multicast (corosync.conf)**"
msgstr "**マルチキャスト用の Corosync 設定ファイル例 (corosync.conf)**"
msgid "**Node Address** Define the IP address of the cluster node."
msgstr "**ノードアドレス** クラスターノードの IP アドレスを定義します。"
msgid "**Node Name** Define the logical name of the cluster node."
msgstr "**ノード名** クラスターノードの論理名を定義します。"
msgid "**System downtime**"
msgstr "**システムの停止時間**"
msgid ""
"**wsrep Provider** The Galera Replication Plugin serves as the wsrep "
"Provider for Galera Cluster. It is installed on your system as the "
"``libgalera_smm.so`` file. You must define the path to this file in your "
"``my.cnf``."
msgstr ""
"**wsrep Provider** Galera Replication Plugin は、Galera Cluster の wsrep "
"Provider として動作します。お使いのシステムに ``libgalera_smm.so`` ファイルと"
"してインストールされます。このファイルへのパスを ``my.cnf`` に定義する必要が"
"あります。"
msgid "/etc/neutron/neutron.conf parameters for high availability"
msgstr "高可用性のための /etc/neutron/neutron.conf のパラメーター"
msgid "1-2"
msgstr "1-2"
msgid "100 GB"
msgstr "100 GB"
msgid "100+ GB"
msgstr "100+ GB"
msgid "2"
msgstr "2"
msgid "2 or more"
msgstr "2 以上"
msgid "2-4+"
msgstr "2-4+"
msgid "8 GB"
msgstr "8 GB"
msgid "8+ GB"
msgstr "8+ GB"
msgid ":command:`# apt-get install rabbitmq-server`"
msgstr ":command:`# apt-get install rabbitmq-server`"
msgid ":command:`# yum install rabbitmq-server`"
msgstr ":command:`# yum install rabbitmq-server`"
msgid ":command:`# zypper addrepo -f obs://Cloud:OpenStack:Kilo/SLE_12 Kilo`"
msgstr ":command:`# zypper addrepo -f obs://Cloud:OpenStack:Kilo/SLE_12 Kilo`"
msgid ":command:`# zypper install rabbitmq-server`"
msgstr ":command:`# zypper install rabbitmq-server`"
msgid ""
":command:`crm configure` supports batch input so you may copy and paste the "
"above lines into your live Pacemaker configuration, and then make changes as "
"required. For example, you may enter edit ``p_ip_keystone`` from the :"
"command:`crm configure` menu and edit the resource to match your preferred "
"virtual IP address."
msgstr ""
":command:`crm configure` はバッチ入力をサポートします。そのため、現在の "
"pacemaker 設定の中に上をコピー・ペーストし、適宜変更を反映できます。例えば、"
"お好みの仮想 IP アドレスに一致させるために、:command:`crm configure` メニュー"
"から ``edit p_ip_keystone`` と入力し、リソースを編集できます。"
msgid ":doc:`Networking DHCP agent<networking-ha-dhcp>`"
msgstr ":doc:`Networking DHCP エージェント <networking-ha-dhcp>`"
msgid ":doc:`Neutron L3 agent<networking-ha-l3>`"
msgstr ":doc:`Networking L3 エージェント <networking-ha-l3>`"
msgid ":doc:`Neutron LBaaS agent<networking-ha-lbaas>`"
msgstr ":doc:`Networking LBaaS エージェント <networking-ha-lbaas>`"
msgid ":doc:`Neutron metadata agent<networking-ha-metadata>`"
msgstr ":doc:`Networking メタデータエージェント <networking-ha-metadata>`"
msgid ""
":ref:`Configure OpenStack services to use Rabbit HA queues <rabbitmq-"
"services>`"
msgstr ""
":ref:`RabbitMQ HA キューを使用するための OpenStack サービスの設定 <rabbitmq-"
"services>`"
msgid ":ref:`Configure RabbitMQ for HA queues<rabbitmq-configure>`"
msgstr ":ref:`高可用性 キュー用の RabbitMQ の設定 <rabbitmq-configure>`"
msgid ":ref:`Install RabbitMQ<rabbitmq-install>`"
msgstr ":ref:`RabbitMQ のインストール<rabbitmq-install>`"
msgid ":ref:`corosync-multicast`"
msgstr ":ref:`corosync-multicast`"
msgid ":ref:`corosync-unicast`"
msgstr ":ref:`corosync-unicast`"
msgid ":ref:`corosync-votequorum`"
msgstr ":ref:`corosync-votequorum`"
msgid ":ref:`glance-api-configure`"
msgstr ":ref:`glance-api-configure`"
msgid ":ref:`glance-api-pacemaker`"
msgstr ":ref:`glance-api-pacemaker`"
msgid ":ref:`glance-services`"
msgstr ":ref:`glance-services`"
msgid ":ref:`ha-blockstorage-configure`"
msgstr ":ref:`ha-blockstorage-configure`"
msgid ":ref:`ha-blockstorage-pacemaker`"
msgstr ":ref:`ha-blockstorage-pacemaker`"
msgid ":ref:`ha-blockstorage-services`"
msgstr ":ref:`ha-blockstorage-services`"
msgid ":ref:`ha-sharedfilesystems-configure`"
msgstr ":ref:`ha-sharedfilesystems-configure`"
msgid ":ref:`ha-sharedfilesystems-pacemaker`"
msgstr ":ref:`ha-sharedfilesystems-pacemaker`"
msgid ":ref:`ha-sharedfilesystems-services`"
msgstr ":ref:`ha-sharedfilesystems-services`"
msgid ":ref:`identity-config-identity`"
msgstr ":ref:`identity-config-identity`"
msgid ":ref:`identity-pacemaker`"
msgstr ":ref:`identity-pacemaker`"
msgid ":ref:`identity-services-config`"
msgstr ":ref:`identity-services-config`"
msgid ":ref:`pacemaker-cluster-properties`"
msgstr ":ref:`pacemaker-cluster-properties`"
msgid ":ref:`pacemaker-corosync-setup`"
msgstr ":ref:`pacemaker-corosync-setup`"
msgid ":ref:`pacemaker-corosync-start`"
msgstr ":ref:`pacemaker-corosync-start`"
msgid ":ref:`pacemaker-install`"
msgstr ":ref:`pacemaker-install`"
msgid ":ref:`pacemaker-start`"
msgstr ":ref:`pacemaker-start`"
msgid ":ref:`search`"
msgstr ":ref:`search`"
msgid ""
":term:`Advanced Message Queuing Protocol (AMQP)` provides OpenStack internal "
"stateful communication service."
msgstr ""
":term:`Advanced Message Queuing Protocol (AMQP)` は、OpenStack 内部のステート"
"フルな通信サービスを提供します。"
msgid ":term:`active/active configuration`"
msgstr ":term:`アクティブ/アクティブ設定 <active/active configuration>`"
msgid ":term:`active/passive configuration`"
msgstr ":term:`アクティブ/パッシブ設定 <active/passive configuration>`"
msgid ""
"A crucial aspect of high availability is the elimination of single points of "
"failure (SPOFs). A SPOF is an individual piece of equipment or software that "
"causes system downtime or data loss if it fails. In order to eliminate "
"SPOFs, check that mechanisms exist for redundancy of:"
msgstr ""
"高可用性の重要な側面は、単一障害点 (SPOF) を減らすことです。SPOF は、障害が発"
"生した場合にシステム停止やデータ損失を引き起こす、設備やソフトウェアの個々の"
"部品です。SPOF を削減するために、以下の冗長性に対するメカニズムを確認します。"
msgid ""
"A sample votequorum service configuration in the :file:`corosync.conf` file "
"is:"
msgstr ":file:`corosync.conf` ファイルの votequorum サービス設定例:"
msgid ""
"A service that provides a response after your request and then requires no "
"further attention. To make a stateless service highly available, you need to "
"provide redundant instances and load balance them. OpenStack services that "
"are stateless include ``nova-api``, ``nova-conductor``, ``glance-api``, "
"``keystone-api``, ``neutron-api`` and ``nova-scheduler``."
msgstr ""
"リクエストに応答して、その後さらなる注意を必要としないサービス。ステートレス"
"なサービスを高可用化するために、複数のインスタンスを配備して、負荷分散する必"
"要があります。ステートレスな OpenStack サービスに ``nova-api``、``nova-"
"conductor``、``glance-api``、``keystone-api``、``neutron-api``、``nova-"
"scheduler`` があります。"
msgid ""
"A service where subsequent requests to the service depend on the results of "
"the first request. Stateful services are more difficult to manage because a "
"single action typically involves more than one request, so simply providing "
"additional instances and load balancing does not solve the problem. For "
"example, if the horizon user interface reset itself every time you went to a "
"new page, it would not be very useful. OpenStack services that are stateful "
"include the OpenStack database and message queue. Making stateful services "
"highly available can depend on whether you choose an active/passive or "
"active/active configuration."
msgstr ""
"最初のリクエストの結果に応じて、後続のリクエストがあるサービス。ステートフル"
"サービスは、あるアクションが一般的に複数のリクエストに影響するため、管理する"
"ことが難しいです。そのため、単純に追加インスタンスを配備して負荷分散するだけ"
"では、問題を解決できません。例えば、horizon ユーザーインターフェースが、新し"
"いページを開くたびに毎回リセットされると、ほとんど役に立たないでしょう。ス"
"テートフルな OpenStack サービスには、OpenStack のデータベース、メッセージ"
"キューがあります。ステートレスなサービスの高可用化には、アクティブ/パッシブま"
"たはアクティブ/アクティブな設定のどちらを選択するかに依存する可能性がありま"
"す。"
msgid ""
"A shared implementation and calculation of `quorum <http://en.wikipedia.org/"
"wiki/Quorum_(Distributed_Systems)>`_."
msgstr ""
"`クォーラム <http://en.wikipedia.org/wiki/Quorum_(Distributed_Systems)>`_ の"
"共有実装と計算"
msgid ""
"A typical active/active installation for a stateful service includes "
"redundant services, with all instances having an identical state. In other "
"words, updates to one instance of a database update all other instances. "
"This way a request to one instance is the same as a request to any other. A "
"load balancer manages the traffic to these systems, ensuring that "
"operational systems always handle the request."
msgstr ""
"一般的にステートレスサービスをアクティブ / アクティブにインストールすること"
"は、すべてのインスタンスが同じ状態を持つ冗長なサービスになることを含みます。"
"別の言い方をすると、あるインスタンスのデータベースの更新は、他のすべてのイン"
"スタンスも更新されます。このように、あるインスタンスへのリクエストは、他への"
"リクエストと同じです。ロードバランサーがこれらのシステムのトラフィックを管理"
"し、利用可能なシステムが常にリクエストを確実に処理します。"
msgid ""
"A typical active/passive installation for a stateful service maintains a "
"replacement resource that can be brought online when required. Requests are "
"handled using a :term:`virtual IP` address (VIP) that facilitates returning "
"to service with minimal reconfiguration. A separate application (such as "
"Pacemaker or Corosync) monitors these services, bringing the backup online "
"as necessary."
msgstr ""
"一般的にステートレスサービスをアクティブ / パッシブにインストールすると、必要"
"に応じてオンラインにできる置換リソースを維持します。リクエストは、サービスの"
"最小限の再設定により返す機能を持つ :term:`仮想 IP <virtual IP>` アドレス "
"(VIP) を使用して処理されます。 独立したアプリケーション (Pacemaker や "
"Corosync など) がこれらのサービスを監視し、必要に応じてバックアップ側をオンラ"
"インにします。"
msgid "API isolation"
msgstr "API 分離"
msgid ""
"Ability to take periodic \"snap shots\" throughout the installation process "
"and \"roll back\" to a working configuration in the event of a problem."
msgstr ""
"インストール中に定期的に「スナップショット」を取得したり、問題発生時に動作す"
"る設定に「ロールバック」したりできます。"
msgid "Abstract"
msgstr "概要"
msgid ""
"Access to RabbitMQ is not normally handled by HAproxy. Instead, consumers "
"must be supplied with the full list of hosts running RabbitMQ with "
"``rabbit_hosts`` and turn on the ``rabbit_ha_queues`` option."
msgstr ""
"RabbitMQ へのアクセスは、通常 HAproxy により取り扱われません。利用者は代わり"
"に、 ``rabbit_hosts`` を用いて RabbitMQ を実行しているホストの一覧を指定し"
"て、 ``rabbit_ha_queues`` オプションを有効化する必要があります。"
msgid ""
"Access to memcached is not handled by HAproxy because replicated access is "
"currently only in an experimental state. Instead OpenStack services must be "
"supplied with the full list of hosts running memcached."
msgstr ""
"重複アクセスは現在実験的な位置づけのため、memcached へのアクセスは HAproxy を"
"利用しません。代わりに、OpenStack のサービスは memcached を実行しているホスト"
"をすべて指定する必要があります。"
msgid ""
"Access via an HAProxy virtual IP, for services such as HTTPd that are "
"accessed via a TCP socket that can be load balanced"
msgstr ""
"HAProxy 仮想 IP 経由のアクセス、負荷分散できる TCP ソケット経由でアクセス可能"
"な HTTPd などのサービス向け。"
msgid "Accidental deletion or destruction of data."
msgstr "意図しないデータの削除や破損。"
msgid "Active/Passive vs. Active/Active"
msgstr "アクティブ/パッシブとアクティブ/アクティブ"
msgid "Add Block Storage API resource to Pacemaker"
msgstr "Block Storage API リソースの Pacemaker への追加"
msgid "Add OpenStack Identity resource to Pacemaker"
msgstr "OpenStack Identity リソースの Pacemaker への追加"
msgid "Add OpenStack Image API resource to Pacemaker"
msgstr "OpenStack Image API リソースの Pacemaker への追加"
msgid "Add Shared File Systems API resource to Pacemaker"
msgstr "Shared File Systems API リソースの Pacemaker への追加"
msgid "Add the Galera Cluster service:"
msgstr "Galera Cluster サービスを追加します。"
msgid "Add the GnuPG key for the database repository that you want to use."
msgstr "使用したいデータベースのリポジトリーに GnuPG キーを追加します。"
msgid ""
"Add the repository to your sources list. Using your preferred text editor, "
"create a ``galera.list`` file in the ``/etc/apt/sources.list.d/`` directory. "
"For the contents of this file, use the lines that pertain to the software "
"repository you want to install:"
msgstr ""
"リポジトリーをソースリストに追加します。お好きなテキストエディターを使用し"
"て、``/etc/apt/sources.list.d/`` ディレクトリーに ``galera.list`` を作成しま"
"す。このファイルの内容は、インストールしたいソフトウェアリポジトリーに関する"
"行を使用します。"
msgid "Add the repository to your system:"
msgstr "リポジトリーをお使いのシステムに追加します。"
msgid "Additional parameters"
msgstr "追加パラメーター"
msgid ""
"After completing these steps, commit your configuration changes by entering :"
"command:`commit` from the :command:`crm configure` menu. Pacemaker then "
"starts the OpenStack Image API service and its dependent resources on one of "
"your nodes."
msgstr ""
"これらの手順の完了後、:command:`crm configure` メニューから :command:"
"`commit` と入力し、設定の変更をコミットします。Pacemaker は OpenStack Image "
"API サービスおよび依存するリソースを同じノードに起動します。"
msgid ""
"After installing the Corosync package, you must create the :file:`/etc/"
"corosync/corosync.conf` configuration file."
msgstr ""
"Corosync パッケージのインストール後、 :file:`/etc/corosync/corosync.conf` 設"
"定ファイルを作成する必要があります。"
msgid ""
"After the ``corosync`` service have been started and you have verified that "
"the cluster is communicating properly, you can start :command:`pacemakerd`, "
"the Pacemaker master control process. Choose one from the following four "
"ways to start it:"
msgstr ""
"``corosync`` サービスが起動して、クラスターが正常に通信していることを確認した"
"後、Pacemaker のマスター制御プロセス :command:`pacemakerd` を起動できます。以"
"下の 4 通りの方法からどれかを選択してください。"
msgid ""
"After the ``pacemaker`` service have started, Pacemaker creates a default "
"empty cluster configuration with no resources. Use the :command:`crm_mon` "
"utility to observe the status of ``pacemaker``:"
msgstr ""
"``pacemaker`` サービスの起動後、Pacemaker がリソースを持たないデフォルトの空"
"クラスターを作成します。 :command:`crm_mon` ユーティリティーを使用して、"
"``pacemaker`` の状態を確認します。"
msgid ""
"After you add these resources, commit your configuration changes by "
"entering :command:`commit` from the :command:`crm configure` menu. Pacemaker "
"then starts the OpenStack Identity service and its dependent resources on "
"one of your nodes."
msgstr ""
"これらのリソースの追加後、:command:`crm configure` メニューから :command:"
"`commit` と入力し、設定の変更をコミットします。Pacemaker は OpenStack "
"Identity サービスおよび依存するリソースを同じノードに起動します。"
msgid "After you make these changes, you may commit the updated configuration."
msgstr "これらの変更実行後、更新した設定を範囲する必要があるかもしれません。"
msgid ""
"After you set up your Pacemaker cluster, you should set a few basic cluster "
"properties:"
msgstr ""
"Pacemaker クラスターのセットアップ後、いくつかの基本的なクラスターのプロパ"
"ティーを設定すべきです。"
msgid "All routers are highly available by default."
msgstr "すべてのルーターは、デフォルトで高可用性になっています。"
msgid ""
"Almost all services in this stack benefit from being proxied. Using a proxy "
"server provides:"
msgstr ""
"このスタックのほぼすべてのサービスは、プロキシーする恩恵を受けられます。プロ"
"キシーサーバを使用することにより、以下が提供されます。"
msgid ""
"Alternatively, if the database server is running, use the "
"``wsrep_last_committed`` status variable:"
msgstr ""
"代わりに、データベースサーバーが動作している場合、 ``wsrep_last_committed`` "
"状態変数を使用します。"
msgid ""
"Alternatively, instead of using systemd agents, download and install the OCF "
"resource agent:"
msgstr ""
"または、systemd エージェントを使用する代わりに、OCF リソースエージェントをダ"
"ウンロードしてインストールします。"
msgid "Alternatively:"
msgstr "他の"
msgid ""
"An AMQP (Advanced Message Queuing Protocol) compliant message bus is "
"required for most OpenStack components in order to coordinate the execution "
"of jobs entered into the system."
msgstr ""
"AMQP (Advanced Message Queuing Protocol) 互換メッセージバスが、システム内の"
"ジョブ実行を調整するために、ほとんどの OpenStack コンポーネントに必要となりま"
"す。"
msgid "An OpenStack environment includes multiple data pools for the VMs:"
msgstr "OpenStack 環境は、仮想マシン向けの複数のデータプールがあります。"
msgid ""
"And the quorum could also have been set to three, just as a configuration "
"example."
msgstr "また、クォーラムが、設定例にあるように 3 つに設定されているでしょう。"
msgid "AppArmor"
msgstr "AppArmor"
msgid "AppArmor now permits Galera Cluster to operate."
msgstr "AppArmor により Galera Cluster の動作を許可されます。"
msgid "Appendix"
msgstr "付録"
msgid ""
"Application Armor is a kernel module for improving security on Linux "
"operating systems. It is developed by Canonical and commonly used on Ubuntu-"
"based distributions. In the context of Galera Cluster, systems with AppArmor "
"may block the database service from operating normally."
msgstr ""
"Application Armor は、Linux オペレーティングシステムにおいてセキュリティーを"
"向上するためのカーネルモジュールです。Canonical により開発され、一般的に "
"Ubuntu 系のディストリビューションにおいて使用されています。Galera Cluster の"
"観点では、AppArmor を有効化したシステムは、データベースサービスが正常に動作す"
"ることを妨げる可能性があります。"
msgid "Applications and automatic service migration"
msgstr "アプリケーションおよびサービスの自動的なマイグレーション"
msgid "Architecture limitations"
msgstr "アーキテクチャーの制限"
msgid ""
"As another option to make RabbitMQ highly available, RabbitMQ contains the "
"OCF scripts for the Pacemaker cluster resource agents since version 3.5.7. "
"It provides the active/active RabbitMQ cluster with mirrored queues. For "
"more information, see `Auto-configuration of a cluster with a Pacemaker "
"<http://www.rabbitmq.com/pacemaker.html>`_."
msgstr ""
"RabbitMQ を高可用化する別の選択肢として、RabbitMQ バージョン 3.5.7 以降、"
"Pacemaker クラスターリソースエージェント向けの OCF スクリプトが含まれます。ア"
"クティブ/アクティブ RabbitMQ クラスターにミラーキューを提供します。詳細は "
"`Auto-configuration of a cluster with a Pacemaker <http://www.rabbitmq.com/"
"pacemaker.html>`_ を参照してください。"
msgid ""
"At its core, a cluster is a distributed finite state machine capable of co-"
"ordinating the startup and recovery of inter-related services across a set "
"of machines."
msgstr ""
"クラスターは、その中心において、複数のセットのマシン間で関連するサービスのス"
"タートアップとリカバリーを調整する機能を持つ、分散有限状態マシンです。"
msgid "Automated recovery of failed instances"
msgstr "障害インスタンスの自動復旧"
msgid "Awareness of instances on other machines"
msgstr "他のマシンにあるインスタンスの把握"
msgid "Awareness of other applications in the stack"
msgstr "スタックにある他のアプリケーションの認識"
msgid "Basic environment for high availability"
msgstr "高可用性のための基本環境"
msgid ""
"Bear in mind that the Percona repository only supports Red Hat Enterprise "
"Linux and CentOS distributions."
msgstr ""
"Percona リポジトリーは Red Hat Enterprise Linux と CentOS のみをサポートする"
"ことを心にとどめておいてください。"
msgid ""
"Bear in mind, leaving SELinux in permissive mode is not a good security "
"practice. Over the longer term, you need to develop a security policy for "
"Galera Cluster and then switch SELinux back into enforcing mode."
msgstr ""
"SELinux を permissive モードにすることは、良いセキュリティー慣行ではないこと"
"を覚えておいてください。長い間、Galera Cluster のセキュリティーポリシーを開発"
"して、SELinux を enforcing モードに切り替える必要があります。"
msgid ""
"Bear in mind, while setting this parameter to ``1`` or ``2`` can improve "
"performance, it introduces certain dangers. Operating system failures can "
"erase the last second of transactions. While you can recover this data from "
"another node, if the cluster goes down at the same time (in the event of a "
"data center power outage), you lose this data permanently."
msgstr ""
"このパラメーターを ``1`` か ``2`` に設定することにより、性能を改善できます"
"が、ある種の危険性があることを覚えておいてください。オペレーティングシステム"
"の障害が、最後の数秒のトランザクションを消去する可能性があります。このデータ"
"を他のノードから復旧することもできますが、クラスターが同時に停止した場合 "
"(データセンターの電源障害時)、このデータを完全に失います。"
msgid "Before you attempt this, verify that you have the following ready:"
msgstr "これを試す前に、以下の準備ができていることを確認します。"
msgid ""
"Before you launch Galera Cluster, you need to configure the server and the "
"database to operate as part of the cluster."
msgstr ""
"Galera クラスターを起動する前に、クラスターの一部として動作するよう、サーバー"
"とデータベースを設定する必要があります。"
msgid ""
"Block Storage service (cinder) can use LVM or Ceph RBD as the storage back "
"end."
msgstr ""
"Block Storage サービス (cinder) は、ストレージバックエンドとして LVM や Ceph "
"RBD を使用できます。"
msgid ""
"Both the central and the compute agent can run in an HA deployment, which "
"means that multiple instances of these services can run in parallel with "
"workload partitioning among these running instances."
msgstr ""
"中央エージェントとコンピュートエージェントの両方は、高可用性で動作できます。"
"これらのサービスの複数のインスタンスが、これらを実行しているインスタンス間で"
"並行して負荷分散できることを意味します。"
msgid ""
"Built-in application clustering, when available from the application. Galera "
"is one example of this."
msgstr ""
"アプリケーション組み込みクラスター、アプリケーションから利用できる場合、"
"Galera がこの例になる。"
msgid ""
"By default, ``controller1`` handles the caching service. If the host goes "
"down, ``controller2`` or ``controller3`` does the job. For more information "
"about memcached installation, see the `OpenStack Administrator Guide <http://"
"docs.openstack.org/admin-guide/>`_."
msgstr ""
"デフォルトで、 ``controller1`` がキャッシュサービスを処理しますが、ホストが停"
"止している場合、 ``controller2`` または ``controller3`` がジョブを実行しま"
"す。memcached のインストールの詳細は `OpenStack Administrator Guide <http://"
"docs.openstack.org/admin-guide/>`_ を参照してください。"
msgid ""
"By default, cluster nodes do not start as part of a Primary Component. "
"Instead they assume that one exists somewhere and attempts to establish a "
"connection with it. To create a Primary Component, you must start one "
"cluster node using the ``--wsrep-new-cluster`` option. You can do this using "
"any cluster node, it is not important which you choose. In the Primary "
"Component, replication and state transfers bring all databases to the same "
"state."
msgstr ""
"クラスターノードは、デフォルトで Primary Component の一部として起動しません。"
"代わりに、それがどこかに存在すると仮定し、そこへの接続を確立しようとします。"
"1 つのクラスターノードを ``--wsrep-new-cluster`` オプションを付けて起動して、"
"Primary Component を作成する必要があります。任意のクラスターノードを使用して"
"実行でき、どれを選択するかは重要ではありません。Primary Component において、"
"レプリケーションと状態転送により、すべてのデータベースが同じ状態になります。"
msgid "Ceph"
msgstr "Ceph"
msgid ""
"Ceph RBD provides object replication capabilities by storing Block Storage "
"volumes as Ceph RBD objects; Ceph RBD ensures that each replica of an object "
"is stored on a different node. This means that your volumes are protected "
"against hard drive and node failures or even the failure of the data center "
"itself."
msgstr ""
"Ceph RBD は、Ceph RBD オブジェクトとして Block Storage のボリュームを保存する"
"ことにより、オブジェクトレプリケーション機能を提供します。オブジェクトの各レ"
"プリカが別々のノードに保存されることを保証します。このことは、お使いのボ"
"リュームがハードディスクやノードの障害時、データセンター自体の障害時にも保護"
"されることを意味します。"
msgid ""
"Certain services running on the underlying operating system of your "
"OpenStack database may block Galera Cluster from normal operation or prevent "
"``mysqld`` from achieving network connectivity with the cluster."
msgstr ""
"OpenStack データベースのベースとなるオペレーティングシステムで動作している特"
"定のサービスは、Galera Cluster が通常の動作をブロックしたり、``mysqld`` がク"
"ラスターとのネットワーク接続を妨害したりする可能性があります。"
msgid "Change the number of expected votes for a cluster to be quorate"
msgstr "クラスターが定数になるために期待されるボート数を変更します"
msgid "Change the number of votes assigned to a node"
msgstr "ノードに割り当てられたボート数を変更します"
msgid ""
"Cinder provides 'block storage as a service' suitable for performance "
"sensitive scenarios such as databases, expandable file systems, or providing "
"a server with access to raw block level storage."
msgstr ""
"Cinder は、データベースなどの性能を必要とするシナリオ、拡張可能なファイルシス"
"テム、ローブロックレベルストレージにアクセスするサーバーに適するサービスとし"
"て「block storage as a service」を提供します。"
msgid "Cinder-volume as a single point of failure"
msgstr "単一障害点としての cinder-volume"
msgid "Clusters and quorums"
msgstr "クラスターとクォーラム"
msgid "Collapsed"
msgstr "Collapsed"
msgid "Command"
msgstr "コマンド"
msgid "Configuration"
msgstr "設定"
msgid "Configuration tips"
msgstr "設定のヒント"
msgid "Configure Block Storage API service"
msgstr "Block Storage API サービスの設定"
msgid "Configure NTP"
msgstr "NTP の設定"
msgid "Configure OpenStack Identity service"
msgstr "OpenStack Identity Service の設定"
msgid "Configure OpenStack Image service API"
msgstr "OpenStack Image サービス API の設定"
msgid "Configure OpenStack services to use HA Shared File Systems API"
msgstr ""
"高可用性 Shared File Systems API を使用するための OpenStack サービスの設定"
msgid "Configure OpenStack services to use Rabbit HA queues"
msgstr "RabbitMQ HA キューを使用するための OpenStack サービスの設定"
msgid "Configure OpenStack services to use highly available Block Storage API"
msgstr "高可用性 Block Storage API を使用するための OpenStack サービスの設定"
msgid ""
"Configure OpenStack services to use highly available OpenStack Image API"
msgstr ""
"高可用性 OpenStack Image Service API を使用するための OpenStack サービスの設"
"定"
msgid ""
"Configure OpenStack services to use the highly available OpenStack Identity"
msgstr "高可用性 OpenStack Identity を使用するための OpenStack サービスの設定"
msgid "Configure RabbitMQ for HA queues"
msgstr "高可用性 キュー用の RabbitMQ の設定"
msgid "Configure Shared File Systems API service"
msgstr "Shared File Systems API サービスの設定"
msgid "Configure high availability on compute nodes"
msgstr "コンピュートノードにおける高可用性の設定"
msgid ""
"Configure networking on each node. The `Networking <http://docs.openstack."
"org/mitaka/install-guide-ubuntu/environment-networking.html>`_ section of "
"the *Install Guide* includes basic information about configuring networking."
msgstr ""
"各ノードにおいてネットワークを設定します。ネットワーク設定に関する基本的な情"
"報は、インストールガイドの `Networking <http://docs.openstack.org/mitaka/"
"install-guide-ubuntu/environment-networking.html>`_ セクションにあります。"
msgid "Configure the VIP"
msgstr "仮想 IP の設定"
msgid "Configuring Block Storage to listen on the VIP address"
msgstr "Block Storage がその仮想 IP アドレスをリッスンする設定"
msgid "Configuring HAProxy"
msgstr "HAProxy の設定"
msgid "Configuring InnoDB"
msgstr "InnoDB の設定"
msgid "Configuring OpenStack services to use this IP address"
msgstr "OpenStack のサービスがこの IP アドレスを使用する設定"
msgid ""
"Configuring RAID on the hard drives that implement storage protects your "
"data against a hard drive failure. If, however, the node itself fails, data "
"may be lost. In particular, all volumes stored on an LVM node can be lost."
msgstr ""
"ストレージを実装するハードディスクに RAID を設定することにより、ハードディス"
"ク障害からデータを保護します。しかしながら、ノード自体が故障した場合、データ"
"が失われるかもしれません。とくに、LVM ノードに保存されている全ボリュームは失"
"われる可能性があります。"
msgid "Configuring Storage for high availability"
msgstr "ストレージの高可用性の設定"
msgid "Configuring ``mysqld``"
msgstr "``mysqld`` の設定"
msgid "Configuring the compute node for high availability"
msgstr "コンピュートノードの高可用性の設定"
msgid "Configuring the controller for high availability"
msgstr "コントローラーの高可用性の設定"
msgid "Configuring the server"
msgstr "サーバーの設定"
msgid "Configuring wsrep replication"
msgstr "wsrep レプリケーションの設定"
msgid ""
"Connect an additional quorum device to allow small clusters remain quorate "
"during node outages"
msgstr ""
"追加のクォーラムデバイスを接続して、小規模なクラスターがノード障害時にクォー"
"ラムを取得できるようにします。"
msgid "Contents"
msgstr "内容"
msgid ""
"Corosync can be configured to work with either multicast or unicast IP "
"addresses or to use the votequorum library."
msgstr ""
"Corosync を動作させるための設定としては、マルチキャスト IP アドレスを使う、ユ"
"ニキャスト IP アドレスを使う、 votequorum ライブラリーを使う、の選択肢があり"
"ます。"
msgid ""
"Create a ``Galera.repo`` file in the local directory. For Galera Cluster for "
"MySQL, use the following content:"
msgstr ""
"ローカルのディレクトリーに ``Galera.repo`` ファイルを作成します。Galera "
"Cluster for MySQL の場合、以下の内容を使用します。"
msgid ""
"Create a configuration file for ``clustercheck`` at ``/etc/sysconfig/"
"clustercheck``:"
msgstr ""
"``clustercheck`` の設定ファイルを ``/etc/sysconfig/clustercheck`` に作成しま"
"す。"
msgid ""
"Create a configuration file for the HAProxy monitor service, at ``/etc/"
"xinetd.d/galera-monitor``:"
msgstr ""
"HAProxy モニターサービスの設定ファイルを ``/etc/xinetd.d/galera-monitor`` に"
"作成します。"
msgid ""
"Create a symbolic link for the database server in the ``disable`` directory:"
msgstr ""
"``disable`` ディレクトリーにデータベースサーバーへのシンボリックリンクを作成"
"します。"
msgid "Create the cluster, giving it a name, and start it:"
msgstr "名前を指定してクラスターを作成し、起動します。"
msgid ""
"Currently, no native feature is provided to make the LBaaS agent highly "
"available using the default plug-in HAProxy. A common way to make HAProxy "
"highly available is to use the VRRP (Virtual Router Redundancy Protocol). "
"Unfortunately, this is not yet implemented in the LBaaS HAProxy plug-in."
msgstr ""
"現在、デフォルトのプラグイン HAProxy を使用して、LBaaS エージェントを高可用化"
"する組み込み機能はありません。HAProxy を高可用化する一般的な方法は、VRRP "
"(Virtual Router Redundancy Protocol) を使用することです。残念ながら、これはま"
"だ LBaaS HAProxy プラグインに実装されていません。"
msgid ""
"Data integrity through fencing (a non-responsive process does not imply it "
"is not doing anything)"
msgstr ""
"フェンシングによるデータ完全性 (応答なしプロセスが何もしていないことを意味し"
"ます)"
msgid "Database"
msgstr "データベース"
msgid "Database (Galera Cluster) for high availability"
msgstr "データベース (Galera クラスター) の高可用性"
msgid "Database configuration"
msgstr "データベース設定"
msgid ""
"Database hosts with Galera Cluster installed. You need a minimum of three "
"hosts;"
msgstr ""
"Galera Cluster クラスターがインストールされたデータベースホスト。少なくとも "
"3 つのホストが必要です。"
msgid "Debian"
msgstr "Debian"
msgid ""
"Define the InnoDB memory buffer pool size. The default value is 128 MB, but "
"to compensate for Galera Cluster's additional memory usage, scale your usual "
"value back by 5%:"
msgstr ""
"InnoDB メモリーバッファープールサイズを定義します。デフォルト値は 128 MB です"
"が、Galera Cluster の追加メモリー使用状況に対して補うために、通常の値を 5% ま"
"でスケールさせてください。"
msgid ""
"Depending on the method used to communicate with the service, the following "
"availability strategies will be followed:"
msgstr ""
"サービスが通信するために使用するメソッドに応じて、以下の可用性の戦略に従いま"
"す。"
msgid "Deployment flavors"
msgstr "デプロイフレーバー"
msgid "Deployment strategies"
msgstr "デプロイ戦略"
msgid "Description"
msgstr "説明"
msgid "Distribution"
msgstr "ディストリビューション"
msgid ""
"Do not change this value. Other modes may cause ``INSERT`` statements on "
"tables with auto-increment columns to fail as well as unresolved deadlocks "
"that leave the system unresponsive."
msgstr ""
"この値を変更してはいけません。他のモジュールが、自動インクリメントの列を用い"
"てテーブルに ``INSERT`` ステートメントを発行するかもしれません。これは、シス"
"テムが応答不可になる解決不能なデッドロックに陥ります。"
msgid "Do this configuration on all services using RabbitMQ:"
msgstr "RabbitMQ を使用するすべてのサービスでこの設定を行います。"
msgid ""
"Each configured interface must have a unique ``ringnumber``, starting with 0."
msgstr ""
"設定済みの各インターフェースは、0 から始まる一意な ``ringnumber`` を持つ必要"
"があります。"
msgid "Each instance has its own IP address;"
msgstr "各インスタンスは、自身の IP アドレスを持ちます。"
msgid ""
"Each instance of HAProxy configures its front end to accept connections only "
"from the virtual IP (VIP) address and to terminate them as a list of all "
"instances of the corresponding service under load balancing, such as any "
"OpenStack API service."
msgstr ""
"HAProxy の各インスタンスは、仮想 IP アドレスからの接続のみを受け付け、"
"OpenStack API サービスなど、負荷分散するサービスの全インスタンスの一覧に振り"
"分けるよう、そのフロントエンドを設定します。"
msgid ""
"Each service also has a backup but manages both the main and redundant "
"systems concurrently. This way, if there is a failure, the user is unlikely "
"to notice. The backup system is already online and takes on increased load "
"while the main system is fixed and brought back online."
msgstr ""
"各サービスはバックアップも持ちますが、メインと冗長システムを同時に管理しま"
"す。このように、ユーザーが気が付かない障害が発生した場合、バックアップシステ"
"ムはすでにオンラインであり、メインシステムが復旧され、オンラインになるまでの"
"間は負荷が高くなります。"
msgid ""
"Edit the :file:`/etc/glance/glance-api.conf` file to configure the OpenStack "
"image service:"
msgstr ""
":file:`/etc/glance/glance-api.conf` ファイルを編集して、OpenStack Image サー"
"ビスを設定します。"
msgid "Edit the :file:`/etc/manila/manila.conf` file:"
msgstr "`/etc/manila/manila.conf` ファイルを編集します。"
msgid ""
"Edit the :file:`keystone.conf` file to change the values of the :manpage:"
"`bind(2)` parameters:"
msgstr ""
":file:`keystone.conf` ファイルを編集して、 :manpage:`bind(2)` パラメーターの"
"値を変更します。"
msgid "Edit the ``/etc/cinder/cinder.conf`` file:"
msgstr "``/etc/cinder/cinder.conf`` ファイルを編集します。"
msgid "Enabling the repository"
msgstr "リポジトリーの有効化"
msgid "Enhanced failure detection"
msgstr "高度な障害検出"
msgid ""
"Ensure that the InnoDB locking mode for generating auto-increment values is "
"set to ``2``, which is the interleaved locking mode."
msgstr ""
"自動インクリメント値を生成するための InnoDB ロックモードがをきちんと``2`` に"
"設定してください。これは、インターリーブ・ロックモードです。"
msgid ""
"Ensure that the InnoDB log buffer is written to file once per second, rather "
"than on each commit, to improve performance:"
msgstr ""
"パフォーマンスを改善するために、InnoDB ログバッファーが、コミットごとではな"
"く、1 秒ごとにファイルに書き込むことを確認します。"
msgid ""
"Ensure that the binary log format is set to use row-level replication, as "
"opposed to statement-level replication:"
msgstr ""
"バイナリーログ形式が、ステートメントレベルのレプリケーションではなく、行レベ"
"ルのレプリケーションに設定されていることを確認してください。"
msgid "Ensure that the default storage engine is set to InnoDB:"
msgstr "デフォルトのストレージエンジンをきちんと InnoDB に設定してください。"
msgid ""
"Ephemeral storage is allocated for an instance and is deleted when the "
"instance is deleted. The Compute service manages ephemeral storage. By "
"default, Compute stores ephemeral drives as files on local disks on the "
"Compute node but Ceph RBD can instead be used as the storage back end for "
"ephemeral storage."
msgstr ""
"一時ストレージは、インスタンスのために割り当てられ、インスタンスの削除時に削"
"除されます。Compute サービスが一時ストレージを管理します。Compute はデフォル"
"トで、コンピュートノードのローカルディスクにファイルとして一時ディスクを保存"
"します。代わりに、Ceph RBD が一時ストレージのストレージバックエンドとして使用"
"できます。"
msgid "Example Config File"
msgstr "サンプル設定ファイル"
msgid "Example configuration with three hosts:"
msgstr "3 ホストでの設定例:"
msgid "Facility services such as power, air conditioning, and fire protection"
msgstr "電源、空調、防火などに関する設備"
msgid "Firewall"
msgstr "ファイアウォール"
msgid ""
"For Debian and Debian-based distributions, such as Ubuntu, complete the "
"following steps:"
msgstr ""
"Debian および、Ubuntu などの Debian 系のディストリビューションは、以下の手順"
"を実行してください。"
msgid ""
"For Debian and Debian-based distributions, such as Ubuntu, run the following "
"command:"
msgstr ""
"Debian および、Ubuntu などの Debian 系のディストリビューションは、以下のコマ"
"ンドを実行してください。"
msgid ""
"For Galera Cluster for MySQL, using your preferred text editor, create a "
"``Galera.repo`` file in the ``/etc/yum.repos.d/`` directory."
msgstr ""
"Galera Cluster for MySQL の場合、お好きなテキストエディターを使用して、 ``/"
"etc/yum.repos.d/`` ディレクトリーに ``Galera.repo`` ファイルを作成します。"
msgid "For Kilo and beyond, focus on L3HA and DVR."
msgstr "Kilo 以降、L3HA と DVR に注力します。"
msgid ""
"For Liberty, we do not have the standalone network nodes in general. We "
"usually run the Networking services on the controller nodes. In this guide, "
"we use the term \"network nodes\" for convenience."
msgstr ""
"Liberty の場合、独立したネットワークノードを一般的に持ちません。よくコント"
"ローラーノードにおいて Networking サービスを実行します。このガイドでは、便宜"
"上、「ネットワークノード」という言葉を使用します。"
msgid "For MariaDB Galera Cluster, instead use this content:"
msgstr "MariaDB Galera Cluster の場合、代わりに以下の内容を使用します。"
msgid ""
"For MariaDB Galera Cluster, using your preferred text editor, create a "
"``Galera.repo`` file in the ``/etc/yum.repos.d/`` directory."
msgstr ""
"MariaDB Galera Cluster の場合、お好きなテキストエディターを使用して、 ``/etc/"
"yum.repos.d/`` ディレクトリーに ``Galera.repo`` ファイルを作成します。"
msgid ""
"For OpenStack Compute, for example, if your OpenStack Image API service IP "
"address is 10.0.0.11 (as in the configuration explained here), you would use "
"the following configuration in your :file:`nova.conf` file:"
msgstr ""
"例えば、OpenStack Compute の場合、OpenStack Image API サービスの IP アドレス"
"が (ここで説明されている設定のように) 10.0.0.11 ならば、以下の設定を :file:"
"`nova.conf` ファイルに使用します。"
msgid "For Percona XtraDB Cluster, run the following command:"
msgstr "Percona XtraDB Cluster の場合、以下のコマンドを実行します。"
msgid ""
"For Red Hat Enterprise Linux and Red Hat-based Linux distributions, the "
"process is more straightforward. In this file, only enter the text for the "
"repository you want to use."
msgstr ""
"Red Hat Enterprise Linux および Red Hat 系のディストリビューションは、手順は"
"もっとシンプルです。このファイルに、使用したいリポジトリーのテキストを入力す"
"るだけです。"
msgid ""
"For Red Hat Enterprise Linux and Red Hat-based distributions, such as Fedora "
"or CentOS, instead run this command:"
msgstr ""
"Red Hat Enterprise Linux および Fedora や CentOS などの Red Hat 系ディストリ"
"ビューションの場合、このコマンドを代わりに実行してください。"
msgid ""
"For SLES 12, the packages are signed by GPG key 893A90DAD85F9316. You should "
"verify the fingerprint of the imported GPG key before using it."
msgstr ""
"SLES 12 の場合、パッケージは GPG キー 893A90DAD85F9316 により署名されていま"
"す。使用する前に、インポートした GPG キーのフィンガープリントを検証すべきで"
"す。"
msgid ""
"For SUSE Enterprise Linux Server and SUSE-based distributions, such as "
"openSUSE, instead run this command:"
msgstr ""
"SUSE Enterprise Linux Server および openSUSE などの SUSE 系ディストリビュー"
"ションの場合、このコマンドを代わりに実行してください。"
msgid ""
"For SUSE Enterprise Linux and SUSE-based distributions, such as openSUSE "
"binary installations are only available for Galera Cluster for MySQL and "
"MariaDB Galera Cluster."
msgstr ""
"SUSE Enterprise Linux や openSUSE などの SUSE 系ディストリビューションのバイ"
"ナリーインストールの場合、Galera Cluster for MySQL と MariaDB Galera Cluster "
"のみ利用可能です。"
msgid ""
"For UDPU, every node that should be a member of the membership must be "
"specified."
msgstr ""
"UDPUでは、全てのードがメンバーシップメンバーを指定しなければなりません。"
msgid ""
"For Ubuntu, you should also enable the Corosync service in the ``/etc/"
"default/corosync`` configuration file."
msgstr ""
"Ubuntu の場合、 ``/etc/default/corosync`` 設定ファイルにおいて Corosync サー"
"ビスも有効化すべきです。"
msgid "For ``crmsh``:"
msgstr "``crmsh`` の場合:"
msgid "For ``pcs``:"
msgstr "``pcs`` の場合:"
msgid ""
"For a complete list of the available parameters, run the ``SHOW VARIABLES`` "
"command from within the database client:"
msgstr ""
"利用できるパラメーターの一覧は、データベースクライアントから ``SHOW "
"VARIABLES`` コマンドを実行してください。"
msgid ""
"For backward compatibility and supporting existing deployments, the central "
"agent configuration also supports using different configuration files for "
"groups of service instances of this type that are running in parallel. For "
"enabling this configuration, set a value for the partitioning_group_prefix "
"option in the `central section <http://docs.openstack.org/liberty/ config-"
"reference/content/ch_configuring-openstack-telemetry.html>`__ in the "
"OpenStack Configuration Reference."
msgstr ""
"既存の環境の後方互換性とサポートのために、中央エージェントの設定は、並列で実"
"行しているこの種のサービスインスタンスのグループのために、別の設定ファイルを"
"使用することもサポートされます。この設定を有効化するために、OpenStack "
"Configuration Reference の `central section <http://docs.openstack.org/"
"liberty/ config-reference/content/ch_configuring-openstack-telemetry."
"html>`__ にある partitioning_group_prefix オプションの値を設定します。"
msgid ""
"For demonstrations and studying, you can set up a test environment on "
"virtual machines (VMs). This has the following benefits:"
msgstr ""
"デモや学習の場合、仮想マシンにテスト環境をセットアップできます。これには以下"
"の利点があります。"
msgid ""
"For detailed instructions about installing HAProxy on your nodes, see its "
"`official documentation <http://www.haproxy.org/#docs>`_."
msgstr ""
"お使いのノードに HAProxy をインストールする方法の詳細は `公式ドキュメント "
"<http://www.haproxy.org/#docs>`_ を参照してください。"
msgid ""
"For each cluster node, run the following commands, replacing ``NODE-IP-"
"ADDRESS`` with the IP address of the cluster node you want to open the "
"firewall to:"
msgstr ""
"各クラスターノード向けに、以下のコマンドを実行します。``NODE-IP-ADDRESS`` を"
"ファイアウォールを開きたいクラスターノードの IP アドレスで置き換えます。"
msgid ""
"For each entry: Replace all instances of ``DISTRO`` with the distribution "
"that you use, such as ``debian`` or ``ubuntu``. Replace all instances of "
"``RELEASE`` with the release of that distribution, such as ``wheezy`` or "
"``trusty``. Replace all instances of ``VERSION`` with the version of the "
"database server that you want to install, such as ``5.6`` or ``10.0``."
msgstr ""
"各項目に対して、すべての ``DISTRO`` をお使いのディストリビューション "
"``debian`` や ``ubuntu`` などに置き換えます。すべての ``RELEASE`` をディスト"
"リビューションのリリース名 ``wheezy`` や ``trusty`` に置き換えます。すべての "
"``VERSION`` をインストールしたいデータベースサーバーのバージョン ``5.6`` や "
"``10.0`` などに置き換えます。"
msgid ""
"For each instance of OpenStack database in your cluster, run the following "
"commands, replacing ``NODE-IP-ADDRESS`` with the IP address of the cluster "
"node you want to open the firewall to:"
msgstr ""
"クラスターにある OpenStack データベースの各インスタンス向けに、以下のコマンド"
"を実行します。``NODE-IP-ADDRESS`` をファイアウォールを開きたいクラスターノー"
"ドの IP アドレスで置き換えます。"
msgid ""
"For environments that do not support multicast, Corosync should be "
"configured for unicast. An example fragment of the :file:`corosync.conf` "
"file for unicastis shown below:"
msgstr ""
"マルチキャストをサポートしていない場合、Corosync はユニキャストで設定すべきで"
"す。ユニキャスト向け :file:`corosync.conf` ファイルの設定例を以下に示します。"
msgid ""
"For firewall configurations, note that Corosync communicates over UDP only, "
"and uses ``mcastport`` (for receives) and ``mcastport - 1`` (for sends)."
msgstr ""
"ファイアウォール設定に向け、Corosync は UDP のみで通信して、 ``mcastport`` "
"(受信用) と ``mcastport - 1`` (送信用) を使用することに注意してください。"
msgid ""
"For information about the required configuration options that have to be set "
"in the :file:`ceilometer.conf` configuration file for both the central and "
"compute agents, see the `coordination section <http://docs.openstack.org/"
"liberty/config-reference/content/ ch_configuring-openstack-telemetry."
"html>`__ in the OpenStack Configuration Reference."
msgstr ""
"中央エージェントとコンピュートエージェントの両方の :file:`ceilometer.conf` 設"
"定ファイルに設定する必要があるオプションの詳細は、OpenStack Configuration "
"Reference の `coordination section <http://docs.openstack.org/liberty/config-"
"reference/content/ ch_configuring-openstack-telemetry.html>`__ を参照してくだ"
"さい。"
msgid ""
"For many Linux distributions, you can configure the firewall using the "
"``firewall-cmd`` utility for FirewallD. To do so, complete the following "
"steps on each cluster node:"
msgstr ""
"多くの Linux ディストリビューションの場合、FirewallD 向けの ``firewall-cmd`` "
"ユーティリティーを使用して、ファイアウォールを設定できます。そうするために、"
"各クラスターノードに以下の手順を実行します。"
msgid ""
"For many Linux distributions, you can configure the firewall using the "
"``iptables`` utility. To do so, complete the following steps:"
msgstr ""
"多くの Linux ディストリビューションの場合、``iptables`` ユーティリティーを使"
"用してファイアウォールを設定できます。そのために、以下の手順を実行します。"
msgid ""
"For more information about configuring storage back ends for the different "
"storage options, see the `OpenStack Administrator Guide <http://docs."
"openstack.org/admin-guide/>`_."
msgstr ""
"さまざまなストレージの選択肢に対して、ストレージバックエンドを設定する方法の"
"詳細は、 `OpenStack Administrator Guide <http://docs.openstack.org/admin-"
"guide/>`_ を参照してください。"
msgid ""
"For more information on configuring SELinux to work with Galera Cluster, see "
"the `Documentation <http://galeracluster.com/documentation-webpages/selinux."
"html>`_"
msgstr ""
"Galera Cluster と動作する SELinux を設定する方法の詳細は `ドキュメント "
"<http://galeracluster.com/documentation-webpages/selinux.html>`_ を参照してく"
"ださい。"
msgid ""
"For more information on firewalls, see `Firewalls and default ports <http://"
"docs.openstack.org/liberty/config-reference/content/firewalls-default-ports."
"html>`_, in the Configuration Reference."
msgstr ""
"ファイアウォールの詳細は、Configuration Reference の `Firewalls and default "
"ports <http://docs.openstack.org/liberty/config-reference/content/firewalls-"
"default-ports.html>`_ を参照してください。"
msgid ""
"For more information, see the official installation manual for the "
"distribution:"
msgstr ""
"詳細はディストリビューションの公式インストールガイドを参照してください。"
msgid "For servers that use ``systemd``, instead run these commands:"
msgstr ""
"``systemd`` を使用するサーバーの場合、これらのコマンドを代わりに実行します。"
msgid "For servers that use ``systemd``, instead run this command:"
msgstr ""
"``systemd`` を使用するサーバーの場合、代わりにこのコマンドを実行します。"
msgid ""
"For servers that use ``systemd``, you need to save the current packet "
"filtering to the path of the file that ``iptables`` reads when it starts. "
"This path can vary by distribution, but common locations are in the ``/etc`` "
"directory, such as:"
msgstr ""
"``systemd`` を使用するサーバーの場合、現在のパケットフィルタリングの内容を、 "
"``iptables`` が起動時に参照するファイルに保存する必要があります。このパスは、"
"ディストリビューションにより異なりますが、次のように、一般的に ``/etc`` ディ"
"レクトリーにあります。"
msgid ""
"For the documentation of these parameters, wsrep Provider option and status "
"variables available in Galera Cluster, see `Reference <http://galeracluster."
"com/documentation-webpages/reference.html>`_."
msgstr ""
"Galera Cluster において利用できる、これらのパラメーター、wsrep プロバイダーオ"
"プション、状態変数のドキュメントは、`Reference <http://galeracluster.com/"
"documentation-webpages/reference.html>`_ を参照してください。"
msgid ""
"For this reason, the use of a cluster manager like `Pacemaker <http://"
"clusterlabs.org>`_ is highly recommended."
msgstr ""
"この理由により、 `Pacemaker <http://clusterlabs.org>`_ のようなクラスターマ"
"ネージャーの利用が強く推奨されます。"
msgid ""
"Galera Cluster configuration parameters all have the ``wsrep_`` prefix. "
"There are five that you must define for each cluster node in your OpenStack "
"database."
msgstr ""
"Galera Cluster の設定パラメーターは、すべて ``wsrep_`` プレフィックスを持ちま"
"す。OpenStack データベースにおいて、各クラスターノード向けに定義する必要があ"
"るものが 5 個あります。"
msgid ""
"Galera Cluster does not support non-transactional storage engines and "
"requires that you use InnoDB by default. There are some additional "
"parameters that you must define to avoid conflicts."
msgstr ""
"Galera Cluster は、トランザクション未対応ストレージエンジンをサポートしませ"
"ん。デフォルトでは InnoDB を使用する必要があります。競合を避けるために定義す"
"る必要のある追加パラメーターがいくつかあります。"
msgid "Galera Cluster for MySQL"
msgstr "Galera Cluster for MySQL"
msgid "Galera Cluster for MySQL:"
msgstr "Galera Cluster for MySQL:"
msgid ""
"Galera Cluster is not available in the base repositories of Linux "
"distributions. In order to install it with your package manage, you must "
"first enable the repository on your system. The particular methods for doing "
"so vary depending on which distribution you use for OpenStack and which "
"database server you want to use."
msgstr ""
"Galera Cluster は、Linux ディストリビューションの標準リポジトリーにおいて利用"
"できません。パッケージ管理機能を用いてインストールするために、まずお使いのシ"
"ステムにおいてリポジトリーを有効化する必要があります。具体的な手順は、"
"OpenStack のために使用するディストリビューション、使用したいデータベースサー"
"バーによりかなり異なります。"
msgid ""
"Galera Cluster is now installed on your system. You must repeat this process "
"for each controller node in your cluster."
msgstr ""
"これで Galera Cluster がお使いのシステムにインストールされました。クラスター"
"内のすべてのコントローラーに、このプロセスを繰り返す必要があります。"
msgid "Galera Cluster requires that you open four ports to network traffic:"
msgstr ""
"Galera Cluster は、ネットワーク通信のために 4 つのポートを開く必要がありま"
"す。"
msgid "Galera can be configured using one of the following strategies:"
msgstr "Galera は、以下の方法のどれかにより設定できます。"
msgid "Galera runs behind HAProxy."
msgstr "Galera は HAProxy の後ろで動作します"
msgid ""
"Galera synchronous replication guarantees a zero slave lag. The failover "
"procedure completes once HAProxy detects that the active back end has gone "
"down and switches to the backup one, which is then marked as 'UP'. If no "
"back ends are up (in other words, the Galera cluster is not ready to accept "
"connections), the failover procedure finishes only when the Galera cluster "
"has been successfully reassembled. The SLA is normally no more than 5 "
"minutes."
msgstr ""
"Galera の同期レプリケーションは、スレーブのラグがないことを保証します。フェイ"
"ルオーバー手順は、アクティブなバックエンドがダウンしたことを HAProxy が検知す"
"ると、バックアップに切り替え、「UP」状態になります。バックエンドが UP になら"
"ない場合、つまり Galera クラスターが接続を受け付ける準備ができていない場合、"
"Galera クラスターが再び正常に再構成された場合のみ、フェイルオーバー手順が完了"
"します。SLA は、通常 5 分以内です。"
msgid "Get a list of nodes known to the quorum service"
msgstr "クォーラムサービスが把握しているノード一覧の取得"
msgid "Glossary"
msgstr "用語集"
msgid "HAProxy"
msgstr "HAProxy"
msgid ""
"HAProxy load balances incoming requests and exposes just one IP address for "
"all the clients."
msgstr ""
"HAProxy は、受信リクエストを負荷分散して、すべてのクライアントに 1 つの IP ア"
"ドレスを公開します。"
msgid ""
"HAProxy provides a fast and reliable HTTP reverse proxy and load balancer "
"for TCP or HTTP applications. It is particularly suited for web crawling "
"under very high loads while needing persistence or Layer 7 processing. It "
"realistically supports tens of thousands of connections with recent hardware."
msgstr ""
"HAProxy は、TCP や HTTP ベースのアプリケーションに、高速かつ高信頼な HTTP リ"
"バースプロキシーとロードバランサーを提供します。とくに、永続性や L7 処理を必"
"要とする、非常に高負荷な Web サイトに適しています。最近のハードウェアを用いる"
"と、数千の接続を現実的にサポートします。"
msgid ""
"HAProxy should not be a single point of failure. It is advisable to have "
"multiple HAProxy instances running, where the number of these instances is a "
"small odd number like 3 or 5. You need to ensure its availability by other "
"means, such as Keepalived or Pacemaker."
msgstr ""
"HAProxy は単一障害点になってはいけません。HAProxy のインスタンスは 3台 また"
"は 5台のような奇数の複数台構成にすることを推奨します。Keepalived や "
"Pacemaker などの他の手段により、可用性を保証する必要があります。"
msgid "Hardware considerations for high availability"
msgstr "高可用性のためのハードウェア考慮事項"
msgid "Hardware setup"
msgstr "ハードウェアのセットアップ"
msgid ""
"Here is an example ``/etc/haproxy/haproxy.cfg`` configuration file. You need "
"a copy of it on each controller node."
msgstr ""
"これは ``/etc/haproxy/haproxy.cfg`` 設定ファイルの例です。各コントローラー"
"ノードにコピーする必要があります。"
msgid "High availability concepts"
msgstr "高可用性の概念"
msgid "High availability for other components"
msgstr "他のコンポーネントの高可用性"
msgid ""
"High availability is not for every user. It presents some challenges. High "
"availability may be too complex for databases or systems with large amounts "
"of data. Replication can slow large systems down. Different setups have "
"different prerequisites. Read the guidelines for each setup."
msgstr ""
"高可用性はあらゆるユーザー向けではありません。いくつかの挑戦を妨害します。高"
"可用性は、大量のデータを持つデータベースやシステムをあまりに複雑にする可能性"
"があります。レプリケーションは大規模システムをスローダウンさせる可能性があり"
"ます。異なるセットアップには、異なる事前要件があります。各セットアップのガイ"
"ドラインを参照してください。"
msgid "High availability is turned off as the default in OpenStack setups."
msgstr "高可用性は、デフォルトの OpenStack セットアップで無効化されています。"
msgid "High availability strategies"
msgstr "高可用性の戦略"
msgid "High availability systems seek to minimize two things:"
msgstr "高可用性システムは、以下の 2 つを最小にすることを目指しています。"
msgid ""
"High availability systems typically achieve an uptime percentage of 99.99% "
"or more, which roughly equates to less than an hour of cumulative downtime "
"per year. In order to achieve this, high availability systems should keep "
"recovery times after a failure to about one to two minutes, sometimes "
"significantly less."
msgstr ""
"高可用性システムは、一般的に 99.99% 以上の稼働率を達成します。おそよ年間 1 時"
"間未満の停止時間になります。高可用性システムは、これを実現するために、障害発"
"生後の復旧時間を 1 2 分以内に、ときにはさらに短く抑えるべきです。"
msgid "Highly available Block Storage API"
msgstr "高可用性 Block Storage API"
msgid "Highly available Identity API"
msgstr "高可用性 Identity API"
msgid "Highly available Image API"
msgstr "高可用性 Image API"
msgid "Highly available Shared File Systems API"
msgstr "高可用性 Shared File Systems API"
msgid "Highly available Telemetry API"
msgstr "高可用性 Telemetry API"
msgid ""
"How frequently to retry connecting with RabbitMQ: [TODO: document the unit "
"of measure here? Seconds?]"
msgstr ""
"How frequently to retry connecting with RabbitMQ: [TODO: document the unit "
"of measure here? Seconds?]"
msgid ""
"How long to back-off for between retries when connecting to RabbitMQ: [TODO: "
"document the unit of measure here? Seconds?]"
msgstr ""
"How long to back-off for between retries when connecting to RabbitMQ: [TODO: "
"document the unit of measure here? Seconds?]"
msgid ""
"However, OpenStack does not require a significant amount of resources and "
"the following minimum requirements should support a proof-of-concept high "
"availability environment with core services and several instances:"
msgstr ""
"しかしながら、OpenStack は膨大なリソースを必要としません。以下の最小要件は、"
"コアサービスといくつかのインスタンスを動かす検証 (POC) 環境には対応できること"
"でしょう。"
msgid ""
"However, running an OpenStack environment on VMs degrades the performance of "
"your instances, particularly if your hypervisor and/or processor lacks "
"support for hardware acceleration of nested VMs."
msgstr ""
"しかしながら、仮想マシン上で OpenStack 環境を実行すると、インスタンスの性能が"
"悪くなります。とくに、ハイパーバイザーとプロセッサーが nested 仮想マシンの"
"ハードウェア支援機能をサポートしない場合は顕著です。"
msgid ""
"However, the reasons vary and are discussed under each component's heading."
msgstr ""
"しかしながら、理由はさまざまであり、各コンポーネントの項目において議論されま"
"す。"
msgid ""
"If the Block Storage service runs on the same nodes as the other services, "
"then it is advisable to also include:"
msgstr ""
"Block Storage サービスが他のサービスと同じノードで実行している場合、以下も含"
"めることを推奨します。"
msgid ""
"If the ``broadcast`` parameter is set to yes, the broadcast address is used "
"for communication. If this option is set, the ``mcastaddr`` parameter should "
"not be set."
msgstr ""
"``broadcast`` パラメーターが yes に設定されている場合、ブロードキャストアドレ"
"スが通信に使用されます。このオプションが設定されている場合、``mcastaddr`` パ"
"ラメーターは設定すべきではありません。"
msgid ""
"If the cluster is working, you can create usernames and passwords for the "
"queues."
msgstr ""
"クラスターが動作していると、キューのユーザー名とパスワードを作成できます。"
msgid ""
"If you are using Corosync version 2 on Ubuntu 14.04, remove or comment out "
"lines under the service stanza, which enables Pacemaker to start up. Another "
"potential problem is the boot and shutdown order of Corosync and Pacemaker. "
"To force Pacemaker to start after Corosync and stop before Corosync, fix the "
"start and kill symlinks manually:"
msgstr ""
"Ubuntu 14.04 において Corosync バージョン 2 を使用している場合、サービスの節"
"の下にある行を削除するかコメントアウトします。これにより、Pacemaker が起動で"
"きます。別の潜在的な問題は、Corosync と Pacemaker の起動と停止の順番です。必"
"ず Pacemaker が Corosync の後に起動して、Corosync の前に停止させるために、"
"start と kill のシンボリックリンクを手動で修正します。"
msgid ""
"If you are using Corosync version 2, use the :command:`corosync-cmapctl` "
"utility instead of :command:`corosync-objctl`; it is a direct replacement."
msgstr ""
"Corosync バージョン 2 を使用している場合、 :command:`corosync-objctl` の代わ"
"りに :command:`corosync-cmapctl` ユーティリティーを使用します。これは、そのま"
"ま置き換えられます。"
msgid ""
"If you are using both private and public IP addresses, you should create two "
"virtual IP addresses and define your endpoint like this:"
msgstr ""
"プライベート IP とパブリック IP の両方を使用する場合、2 つの仮想 IP アドレス"
"を作成し、次のようにエンドポイントを定義すべきです。"
msgid ""
"If you are using both private and public IP addresses, you should create two "
"virtual IPs and define your endpoint like this:"
msgstr ""
"プライベート IP アドレスとパブリック IP アドレスの両方を使用する場合、2 つの"
"仮想 IP アドレスを作成し、次のようにエンドポイントを定義すべきです。"
msgid ""
"If you are using both private and public IP addresses, you should create two "
"virtual IPs and define your endpoints like this:"
msgstr ""
"プライベート IP アドレスとパブリック IP アドレスの両方を使用する場合、2 つの"
"仮想 IP アドレスを作成し、次のようにエンドポイントを定義すべきです。"
msgid ""
"If you are using the Block Storage service OCF agent, some settings will be "
"filled in for you, resulting in a shorter configuration file:"
msgstr ""
"Block Storage サービス OCF エージェントを使用している場合、いくつかの設定は入"
"力されていて、設定ファイルを短くできます。"
msgid ""
"If you are using the horizon dashboard, edit the :file:`local_settings.py` "
"file to include the following:"
msgstr ""
"Dashboard を使用している場合、以下の内容を含めた :file:`local_settings.py` "
"ファイルを編集します。"
msgid ""
"If you change the configuration from an old set-up that did not use HA "
"queues, you should restart the service:"
msgstr ""
"HA キューを使用していない古いセットアップから設定を変更した場合、サービスを再"
"起動しなければいけません。"
msgid ""
"If you find any or all of these limitations concerning, you are encouraged "
"to refer to the :doc:`Pacemaker HA architecture<intro-ha-arch-pacemaker>` "
"instead."
msgstr ""
"これらの制限に関する心配がある場合、代わりに :doc:`Pacemaker HA "
"architecture<intro-ha-arch-pacemaker>` を参照することを推奨します。"
msgid ""
"If you use HAProxy for load-balancing client access to Galera Cluster as "
"described in the :doc:`controller-ha-haproxy`, you can use the "
"``clustercheck`` utility to improve health checks."
msgstr ""
":doc:`controller-ha-haproxy` に記載されているとおり、Galera Cluster へのクラ"
"イアントアクセスを負荷分散するために、HAProxy を使用している場合、 "
"``clustercheck`` ユーティリティーを使用して、より良くヘルスチェックできます。"
msgid ""
"Image service (glance) can use the Object Storage service (swift) or Ceph "
"RBD as the storage back end."
msgstr ""
"Image サービス (glance) は、ストレージバックエンドとして Object Storage サー"
"ビス (swift) や Ceph RBD を使用できます。"
msgid ""
"In Corosync configurations using redundant networking (with more than one "
"interface), you must select a Redundant Ring Protocol (RRP) mode other than "
"none. ``active`` is the recommended RRP mode."
msgstr ""
"(複数のインターフェースを用いた) 冗長ネットワークを使用する Corosync 設定にお"
"いて、none ではなく、Redundant Ring Protocol (RRP) を選択する必要があります。"
"``active`` が RRP の推奨モードです。"
msgid ""
"In Galera Cluster, the Primary Component is the cluster of database servers "
"that replicate into each other. In the event that a cluster node loses "
"connectivity with the Primary Component, it defaults into a non-operational "
"state, to avoid creating or serving inconsistent data."
msgstr ""
"Galera Cluster では、Primary Component が、お互いにレプリケーションするデータ"
"ベースサーバーのクラスターです。クラスターノードが Primary Component との接続"
"性を失った場合、不整合なデータの作成や処理を避けるために、デフォルトで非稼働"
"状態になります。"
msgid ""
"In Red Hat Enterprise Linux or CentOS environments, this is a recommended "
"path to perform configuration. For more information, see the `RHEL docs "
"<https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/7/"
"html/High_Availability_Add-On_Reference/ch-clusteradmin-HAAR.html#s1-"
"clustercreate-HAAR>`_."
msgstr ""
"Red Hat Enterprise Linux や CentOS 環境の場合、設定するための推奨パスがありま"
"す。詳細は `RHEL docs <https://access.redhat.com/documentation/en-US/"
"Red_Hat_Enterprise_Linux/7/html/High_Availability_Add-On_Reference/ch-"
"clusteradmin-HAAR.html#s1-clustercreate-HAAR>`_ を参照してください。"
msgid ""
"In addition to Galera Cluster, you can also achieve high availability "
"through other database options, such as PostgreSQL, which has its own "
"replication system."
msgstr ""
"Galera Cluster 以外に、独自のレプリケーションシステムを持つ PostgreSQL など、"
"他のデータベースにより高可用性を実現することもできます。"
msgid ""
"In case of a network partitioning, there is a chance that two or more nodes "
"running keepalived claim to hold the same VIP, which may lead to an "
"undesired behaviour. Since keepalived uses VRRP over multicast to elect a "
"master (VIP owner), a network partition in which keepalived nodes cannot "
"communicate will result in the VIPs existing on two nodes. When the network "
"partition is resolved, the duplicate VIPs should also be resolved. Note that "
"this network partition problem with VRRP is a known limitation for this "
"architecture."
msgstr ""
"ネットワーク分割された場合、keepalived を実行している複数のノードが同じ仮想 "
"IP を要求する可能性があります。これは望ましくない挙動をもたらすかもしれませ"
"ん。keepalived がマスター (仮想 IP の所有者) を選択するために、マルチキャスト"
"経由で VRRP を使用するので、keepalived ノードが通信できないネットワーク分割に"
"より、仮想 IP が複数のノードに存在することになります。ネットワーク分割が解消"
"されたとき、仮想 IP の重複も解消されるべきです。この VRRP を用いたネットワー"
"ク分割問題は、このアーキテクチャーの既知の制限であることに注意してください。"
msgid ""
"In general we can divide all the OpenStack components into three categories:"
msgstr ""
"一般的に、すべての OpenStack コンポーネントは 3 つのカテゴリーに分割できま"
"す。"
msgid "In summary though:"
msgstr "概要:"
msgid ""
"In the event that you already installed the standalone version of MySQL, "
"MariaDB or Percona XtraDB, this installation purges all privileges on your "
"OpenStack database server. You must reapply the privileges listed in the "
"installation guide."
msgstr ""
"すでに MySQL、MariaDB、Percona XtraDB のスタンドアロン版をインストールしてい"
"る場合、このインストールにより、お使いの OpenStack データベースサーバーにおい"
"て、すべての権限が削除されます。インストールガイドにまとめられている権限を再"
"適用する必要があります。"
msgid ""
"In the event that you also want to configure multicast replication, run this "
"command as well:"
msgstr ""
"また、マルチキャストレプリケーションを設定したいイベントにおいて、このコマン"
"ドを同じように実行します。"
msgid ""
"In the event that you do not know the release code-name for your "
"distribution, you can use the following command to find it out:"
msgstr ""
"お使いのディストリビューションのリリースコード名がわからない場合、以下のコマ"
"ンドを使用して確認できます。"
msgid ""
"In the event that you need to restart any cluster node, you can do so. When "
"the database server comes back it, it establishes connectivity with the "
"Primary Component and updates itself to any changes it may have missed while "
"down."
msgstr ""
"クラスターノードをどれか再起動する必要がある場合、実行できます。データベース"
"サーバーが戻ってきたとき、Primary Component との接続を確立して、停止中に失っ"
"た変更をすべて自身に適用します。"
msgid ""
"In the event that you use multicast replication, you also need to open "
"``4567`` to UDP traffic:"
msgstr ""
"マルチキャストレプリケーションを使用する場合、UDP の ``4567`` 番ポートも開く"
"必要があります。"
msgid ""
"In the text: Replace ``DISTRO`` with the name of the distribution you use, "
"such as ``sles`` or ``opensuse``. Replace ``RELEASE`` with the version "
"number of that distribution."
msgstr ""
"``DISTRO`` を使用する ``sles`` や ``opensuse`` などのディストリビューションの"
"名前で置き換えます。 ``RELEASE`` をディストリビューションのバージョン番号に置"
"き換えます。"
msgid ""
"In the text: Replace ``VERSION`` with the version of MariaDB you want to "
"install, such as ``5.6`` or ``10.0``. Replace package with the package "
"architecture you want to use, such as ``opensuse13-amd64``."
msgstr ""
"テキストにおいて、インストールしたい MariaDB のバージョン、``5.6`` や "
"``10.0`` などで ``VERSION`` を置き換えます。使用したいパッケージアーキテク"
"チャー、``opensuse13-amd64`` などで package を置き換えます。"
msgid ""
"In theory, you can run the Block Storage service as active/active. However, "
"because of sufficient concerns, it is recommended running the volume "
"component as active/passive only."
msgstr ""
"理論的には、Block Storage サービスをアクティブ/アクティブとして実行できます。"
"しかしながら、十分な課題のため、ボリュームコンポーネントをアクティブ/パッシブ"
"のみとして実行することが推奨されます。"
msgid "In this case that is a problem though, because:"
msgstr "この場合、以下の理由で、それは問題になります。"
msgid ""
"In this configuration, each service runs in a dedicated cluster of 3 or more "
"nodes."
msgstr ""
"この設定では、各サービスが 3 以上のノードの専用クラスターで動作します。"
msgid ""
"In this configuration, there is a single cluster of 3 or more nodes on which "
"every component is running."
msgstr ""
"この設定では、すべてのコンポーネントが動作する、3 つ以上のノードを持つシング"
"ルクラスターがあります。"
msgid ""
"Individual cluster nodes can stop and be restarted without issue. When a "
"database loses its connection or restarts, Galera Cluster brings it back "
"into sync once it reestablishes connection with the Primary Component. In "
"the event that you need to restart the entire cluster, identify the most "
"advanced cluster node and initialize the Primary Component on that node."
msgstr ""
"各クラスターノードは、問題なく停止したり再起動したりできます。データベースが"
"接続を失ったり、再起動したりしたとき、Primary Component と再接続されると、"
"Galera Cluster は同期状態に戻ります。クラスター全体を再起動する必要があると"
"き、最も高度なクラスターノードを識別し、そのノードの Primary Component を初期"
"化します。"
msgid ""
"Initialize the Primary Component on one cluster node. For servers that use "
"``init``, run the following command:"
msgstr ""
"1 つのクラスターノードにおいて Primary Component を初期化します。``init`` を"
"使用するサーバーの場合、以下のコマンドを実行します。"
msgid "Initializing the cluster"
msgstr "クラスターの初期化"
msgid "Install RabbitMQ"
msgstr "RabbitMQ のインストール"
msgid "Install memcached"
msgstr "memcached のインストール"
msgid "Install operating system on each node"
msgstr "各ノードへのオペレーティングシステムのインストール"
msgid "Install packages"
msgstr "パッケージのインストール"
msgid "Installation"
msgstr "インストール"
msgid "Installing Galera Cluster"
msgstr "Galera Cluster のインストール"
msgid "Introduction to OpenStack high availability"
msgstr "OpenStack 高可用性の概要"
msgid ""
"It is also possible to follow a segregated approach for one or more "
"components that are expected to be a bottleneck and use a collapsed approach "
"for the remainder."
msgstr ""
"1 つ以上のコンポーネントに対して、別々のアプローチをとることができますが、ボ"
"トルネックになり、思い出すことが難しいアプローチを使用する可能性があります。"
msgid ""
"It is important to note that HAProxy has no idea that any of this is "
"happening. As far as its process is concerned, it called ``write()`` with "
"the data and the kernel returned success. The resolution is already "
"understood and just needs to make its way through a review."
msgstr ""
"HAProxy は、これが発生したときのアイディアがないことに、とくに注意してくださ"
"い。そのプロセスが関係している限り、データと一緒に ``write()`` を呼び出し、"
"カーネルが成功を返します。この解決方法は、すでにわかっていて、ただレビューを"
"通す必要があります。"
msgid ""
"It is possible to add controllers to such an environment to convert it into "
"a truly highly available environment."
msgstr ""
"コントローラーをそのような環境に追加して、それを信頼できる高可用性環境に変え"
"られます。"
msgid "Jon Bernard writes:"
msgstr "Jon Bernard は次のように書きました。"
msgid ""
"Jon Eck found the `core issue <http://people.redhat.com/jeckersb/private/vip-"
"failover-tcp-persist.html>`_ and went into some detail regarding the "
"`history and solution <http://john.eckersberg.com/improving-ha-failures-with-"
"tcp-timeouts.html>`_ on his blog."
msgstr ""
"Jon Eck さんは、 `コアな問題 <http://people.redhat.com/jeckersb/private/vip-"
"failover-tcp-persist.html>`_ を発見して、彼のブログにおいて `経緯と解決策 "
"<http://john.eckersberg.com/improving-ha-failures-with-tcp-timeouts.html>`_ "
"に関する詳細を述べました。"
msgid "Keepalived and network partitions"
msgstr "Keepalived とネットワーク分割"
msgid "Keepalived, for the HAProxy instances."
msgstr "Keepalived、HAProxy インスタンス向け。"
msgid "Key"
msgstr "キー"
msgid "Load distribution"
msgstr "負荷分散"
msgid ""
"Log in to the database client and grant the ``clustercheck`` user "
"``PROCESS`` privileges."
msgstr ""
"データベースクライアントにログインして、``clustercheck`` ユーザーに "
"``PROCESS`` 権限を与えます。"
msgid "Make sure pcs is running and configured to start at boot time:"
msgstr ""
"pcs が実行中で、ブート時に起動するよう設定されていることを確認してください。"
msgid ""
"Make the changes persistent. For servers that use ``init``, use the :command:"
"`save` command:"
msgstr ""
"変更を永続化します。 ``init`` を使用するサーバーの場合、 :command:`save` コマ"
"ンドを使用します。"
msgid ""
"Making the Block Storage (cinder) API service highly available in active/"
"active mode involves:"
msgstr ""
"Block Storage (cinder) API サービスのアクティブ/アクティブモードでの高可用性"
"は、以下が関係します。"
msgid ""
"Making the OpenStack Identity service highly available in active / passive "
"mode involves:"
msgstr ""
"OpenStack Identity Service をアクティブ / パッシブモードで高可用性にすること"
"は、次のことが関連します。"
msgid ""
"Making the RabbitMQ service highly available involves the following steps:"
msgstr "RabbitMQ サービスを高可用性にすることは、以下の手順が関連します。"
msgid ""
"Making the Shared File Systems (manila) API service highly available in "
"active/passive mode involves:"
msgstr ""
"Shared File Systems (manila) API サービスのアクティブ/パッシブモードでの高可"
"用性は、以下が関係します。"
msgid ""
"Making this Block Storage API service highly available in active/passive "
"mode involves:"
msgstr ""
"Block Storage API サービスのアクティブ/パッシブモードでの高可用性は、以下が関"
"係します。"
msgid "Management"
msgstr "マネジメント"
msgid ""
"Managing the Block Storage API daemon with the Pacemaker cluster manager"
msgstr ""
"Pacemaker クラスターマネージャーを用いた Block Storge API デーモンの管理"
msgid "Manual recovery after a full cluster restart"
msgstr "完全なクラスター再起動後の手動リカバリー"
msgid ""
"Many services can act in an active/active capacity, however, they usually "
"require an external mechanism for distributing requests to one of the "
"available instances. The proxy server can serve this role."
msgstr ""
"ほとんどのサービスがアクティブ/アクティブ機能で動作できます。しかしながら、通"
"常は分散されたリクエストが利用できるインスタンスのどれかになる外部機能が必要"
"になります。プロキシーサーバーはこの役割になれます。"
msgid "MariaDB Galera Cluster"
msgstr "MariaDB Galera Cluster"
msgid "MariaDB Galera Cluster:"
msgstr "MariaDB Galera Cluster:"
msgid "Maximum number of network nodes to use for the HA router."
msgstr "HA ルーターのために使用するネットワークノードの最大数"
msgid ""
"Maximum retries with trying to connect to RabbitMQ (infinite by default):"
msgstr "RabbitMQ に接続を試行する最大回数 (デフォルトで無制限):"
msgid "Memcached"
msgstr "Memcached"
msgid ""
"Memcached is a general-purpose distributed memory caching system. It is used "
"to speed up dynamic database-driven websites by caching data and objects in "
"RAM to reduce the number of times an external data source must be read."
msgstr ""
"Memcached は汎用の分散メモリーキャッシュシステムです。データやオブジェクトを"
"メモリーにキャッシュすることにより、外部データソースの読み込み回数を減らし、"
"データベースを利用した動的 Web サイトを高速化するために使用されます。"
msgid ""
"Memcached is a memory cache demon that can be used by most OpenStack "
"services to store ephemeral data, such as tokens."
msgstr ""
"Memcached は、ほとんどの OpenStack サービスがトークンなどの一時的なデータを保"
"存するために使用できる、メモリーキャッシュのデーモンです。"
msgid ""
"Memcached uses a timeout value, which should always be set to a value that "
"is higher than the heartbeat value set for Telemetry."
msgstr ""
"Memcached は、タイムアウト値を使用します。これは、Telemetry 向けに設定された"
"ハートビート値よりも大きい値を常に設定されるべきです。"
msgid "Memory"
msgstr "メモリー"
msgid ""
"Memory caching is managed by `oslo.cache <http://specs.openstack.org/"
"openstack/oslo-specs/specs/kilo/oslo-cache-using-dogpile.html>`_ so the way "
"to use multiple memcached servers is the same for all projects."
msgstr ""
"メモリーキャッシュは `oslo.cache <http://specs.openstack.org/openstack/oslo-"
"specs/specs/kilo/oslo-cache-using-dogpile.html>`_ により管理されています。そ"
"のため、複数の memcached サーバーを使用する方法が、すべてのプロジェクトで同じ"
"になります。"
msgid "Messaging service for high availability"
msgstr "メッセージサービスの高可用性"
msgid ""
"Minimum number of network nodes to use for the HA router. A new router can "
"be created only if this number of network nodes are available."
msgstr ""
"HA ルーターのために使用するネットワークノードの最小数。この数だけのネットワー"
"クノードを利用できる場合のみ、新規ルーターを作成できます。"
msgid ""
"Mirrored queues in RabbitMQ improve the availability of service since it is "
"resilient to failures."
msgstr ""
"RabbitMQ のキューミラーは、障害耐性があるので、サービスの可用性を改善します。"
msgid "Mixed"
msgstr "Mixed"
msgid "MongoDB"
msgstr "MongoDB"
msgid "More information is available in the RabbitMQ documentation:"
msgstr "詳細は RabbitMQ のドキュメントにあります。"
msgid ""
"Most OpenStack services can use memcached to store ephemeral data such as "
"tokens. Although memcached does not support typical forms of redundancy such "
"as clustering, OpenStack services can use almost any number of instances by "
"configuring multiple hostnames or IP addresses. The memcached client "
"implements hashing to balance objects among the instances. Failure of an "
"instance only impacts a percentage of the objects and the client "
"automatically removes it from the list of instances."
msgstr ""
"ほとんどの OpenStack サービスは、トークンなどの一時データを保存するために "
"memcached を使用できます。memcached はクラスターなどの一般的な形式の冗長化を"
"サポートしませんが、OpenStack サービスは複数のホスト名や IP アドレスを設定す"
"ることにより、ほぼ任意の数のインスタンスを使用できます。Memcached クライアン"
"トは、インスタンス間でオブジェクトを分散するハッシュ機能を持ちます。インスタ"
"ンスの障害は、オブジェクトの使用率のみに影響します。クライアントは、インスタ"
"ンスの一覧から自動的に削除されます。"
msgid ""
"Most distributions ship an example configuration file (:file:`corosync.conf."
"example`) as part of the documentation bundled with the Corosync package. An "
"example Corosync configuration file is shown below:"
msgstr ""
"ほとんどのディストリビューションは、Corosync パッケージに同梱されているドキュ"
"メントの一部として、サンプル設定ファイル (:file:`corosync.conf.example`) を同"
"梱しています。"
msgid ""
"Most high availability systems fail in the event of multiple independent "
"(non-consequential) failures. In this case, most implementations favor "
"protecting data over maintaining availability."
msgstr ""
"多くの高可用性システムは、複数の独立した (不連続な) 障害が発生すると停止しま"
"す。この場合、多くのシステムは可用性の維持よりデータを保護することを優先しま"
"す。"
msgid ""
"Most high availability systems guarantee protection against system downtime "
"and data loss only in the event of a single failure. However, they are also "
"expected to protect against cascading failures, where a single failure "
"deteriorates into a series of consequential failures. Many service providers "
"guarantee :term:`Service Level Agreement (SLA)` including uptime percentage "
"of computing service, which is calculated based on the available time and "
"system downtime excluding planned outage time."
msgstr ""
"多くの高可用性システムは、単一障害事象のみにおいて、システム停止時間やデータ"
"損失に対する保護を保証します。しかしながら、単一障害が一連の障害を悪化させて"
"いく、段階的な障害に対しても保護されることが期待されます。多くのサービスプロ"
"バイダーは、コンピューティングサービスの稼働率などの :term:`Service Level "
"Agreement (SLA)` を保証します。それは、計画停止を除くシステム停止時間と稼働時"
"間に基づいて計算されます。"
msgid ""
"Most of this guide concerns the control plane of high availability: ensuring "
"that services continue to run even if a component fails. Ensuring that data "
"is not lost is the data plane component of high availability; this is "
"discussed here."
msgstr ""
"このガイドのほとんどは、コントロールプレーンの高可用性を取り扱います。コン"
"ポーネントが故障した場合でも、そのサービスが動作しつづけることを保証します。"
"データ失われないことを保証することは、データプレーンのコンポーネントの高可用"
"性です。それは、ここで議論します。"
msgid ""
"Multicast groups (``mcastaddr``) must not be reused across cluster "
"boundaries. In other words, no two distinct clusters should ever use the "
"same multicast group. Be sure to select multicast addresses compliant with "
"`RFC 2365, \"Administratively Scoped IP Multicast\" <http://www.ietf.org/rfc/"
"rfc2365.txt>`_."
msgstr ""
"マルチキャストグループ (``mcastaddr``) は、クラスターの境界を越えて再利用でき"
"ません。別の言い方をすると、2 つの独立したクラスターは、同じマルチキャストグ"
"ループを使用すべきではありません。選択したマルチキャストアドレス をきちんと"
"`RFC 2365, \"Administratively Scoped IP Multicast\" <http://www.ietf.org/rfc/"
"rfc2365.txt>`_ に準拠させてください。"
msgid ""
"MySQL databases, including MariaDB and Percona XtraDB, manage their "
"configurations using a ``my.cnf`` file, which is typically located in the ``/"
"etc`` directory. Configuration options available in these databases are also "
"available in Galera Cluster, with some restrictions and several additions."
msgstr ""
"MariaDB や Percona XtraDB を含む、MySQL は ``my.cnf`` ファイルを使用して設定"
"を管理します。一般的に ``/etc`` ディレクトリーにあります。これらのデータベー"
"スにおいて利用できる設定オプションは、Galera Cluster においても利用できます。"
"いくつかの制約や追加があります。"
msgid "NIC"
msgstr "NIC"
msgid "Network components"
msgstr "ネットワークコンポーネント"
msgid "Network components, such as switches and routers"
msgstr "スイッチやルーターなどのネットワークの構成要素"
msgid ""
"Networking L2 agent. Note that the L2 agent cannot be distributed and highly "
"available. Instead, it must be installed on each data forwarding node to "
"control the virtual network drivers such as Open vSwitch or Linux Bridge. "
"One L2 agent runs per node and controls its virtual interfaces."
msgstr ""
"Networking L2 エージェント。L2 エージェントは分散させることはできず、高可用構"
"成にはできません。その代わり、 L2 エージェントを各データ転送ノードにインス"
"トールして、 Open vSwitch や Linux ブリッジなどの仮想ネットワークドライバーを"
"制御します。ノードあたり 1 つの L2 エージェントが動作し、そのノードの仮想イン"
"ターフェースの制御を行います。"
msgid "Networking services for high availability"
msgstr "高可用性のための Networking サービス"
msgid "Neutron-lbaas-agent as a single point of failure"
msgstr "単一障害点としての neutron-lbaas-agent"
msgid "No firewalls between the hosts;"
msgstr "ホスト間にファイアウォールがないこと。"
msgid ""
"No high availability, when the service can only work in active/passive mode."
msgstr ""
"このサービスがアクティブ/パッシブモードのみで動作する場合、高可用性はありませ"
"ん。"
msgid ""
"No native feature is available to make this service highly available. At "
"this time, the Active/Passive solution exists to run the neutron metadata "
"agent in failover mode with Pacemaker."
msgstr ""
"このサービスを高可用化するための組み込み機能はありません。現状、アクティブ/"
"パッシブのソリューションが存在し、Pacemaker を用いてフェイルオーバーモードで "
"neutron メタデータエージェントを実行します。"
msgid "Node type"
msgstr "ノード種別"
msgid ""
"Note that setting the quorum to a value less than floor(n/2) + 1 is not "
"recommended and would likely cause a split-brain in a face of network "
"partitions."
msgstr ""
"クォーラムの値を floor(n/2) + 1 より小さく設定することは推奨されないことに注"
"意してください。これはネットワーク分割の発生時にスプリットブレインを引き起こ"
"す可能性があります。"
msgid ""
"Note that the particular key value in this command varies depending on which "
"database software repository you want to use."
msgstr ""
"このコマンドの具体的なキーは、使用したいデータベースのソフトウェアリポジト"
"リーにより異なります。"
msgid "Note the following about the recommended interface configuration:"
msgstr "インターフェースの推奨設定に関する注意事項がいくつかあります。"
msgid "Note the following:"
msgstr "以下に注意してください。"
msgid "Notes from planning outline:"
msgstr "計画の概要からのメモ:"
msgid ""
"Occurs when a user-facing service is unavailable beyond a specified maximum "
"amount of time."
msgstr "指定された最大時間を超えて、ユーザーサービスが利用不可能になること。"
msgid ""
"Of these options, the second one is highly recommended. Although Galera "
"supports active/active configurations, we recommend active/passive (enforced "
"by the load balancer) in order to avoid lock contention."
msgstr ""
"これらの選択肢のうち、2 番目が強く推奨されます。Galera はアクティブ/アクティ"
"ブ設定をサポートしますが、ロック競合を避けるために、(ロードバランサーにより強"
"制される) アクティブ/パッシブを推奨します。"
msgid "On CentOS, RHEL, openSUSE, and SLES:"
msgstr "CentOS、RHEL、openSUSE、SLES の場合:"
msgid ""
"On RHEL-based systems, you should create resources for cinder's systemd "
"agents and create constraints to enforce startup/shutdown ordering:"
msgstr ""
"RHEL 系のシステムでは、cinder の systemd エージェント向けリソースを作成して、"
"起動と停止の順番を強制する制約を作成すべきです。"
msgid "On Ubuntu, it is configured by default."
msgstr "Ubuntu の場合、デフォルトで設定されています。"
msgid ""
"On ``3306``, Galera Cluster uses TCP for database client connections and "
"State Snapshot Transfers methods that require the client, (that is, "
"``mysqldump``)."
msgstr ""
"``3306`` では、Galera Cluster がデータベースクライアント接続のために TCP を使"
"用します。また、クライアント 、つまり ``mysqldump`` を必要とする State "
"Snapshot Transfers メソッドを使用します。"
msgid ""
"On ``4444`` Galera Cluster uses TCP for all other State Snapshot Transfer "
"methods."
msgstr ""
"``4444`` では、Galera Cluster が他のすべての State Snapshot Transfer メソッド"
"のために TCP を使用します。"
msgid ""
"On ``4567`` Galera Cluster uses TCP for replication traffic. Multicast "
"replication uses both TCP and UDP on this port."
msgstr ""
"``4567`` では、Galera Cluster が複製通信のために TCP を使用します。マルチキャ"
"ストレプリケーションは、このポートで TCP と UDP を使用します。"
msgid "On ``4568`` Galera Cluster uses TCP for Incremental State Transfers."
msgstr ""
"``4568`` では、Galera Cluster が Incremental State Transfers のために TCP を"
"使用します。"
msgid "On a RHEL-based system, it should look something like:"
msgstr "RHEL 系システムの場合、次のようになるでしょう。"
msgid ""
"On any host that is meant to be part of a Pacemaker cluster, you must first "
"establish cluster communications through the Corosync messaging layer. This "
"involves installing the following packages (and their dependencies, which "
"your package manager usually installs automatically):"
msgstr ""
"Pacemaker クラスターに参加させる各ホストで、まず Corosync メッセージレイヤー"
"でクラスター通信を行う必要があります。これには、以下のパッケージをインストー"
"ルする必要があります (依存パッケージも含みます。依存パッケージは通常パッケー"
"ジマネージャーにより自動的にインストールされます)。"
msgid ""
"On each target node, verify the correct owner, group, and permissions of the "
"file :file:`erlang.cookie`."
msgstr ""
"各ターゲットノードにおいて、 :file:`erlang.cookie` の所有者、所有グループ、"
"パーミッションが正しいことを確認します。"
msgid ""
"On the infrastructure layer, the SLA is the time for which RabbitMQ cluster "
"reassembles. Several cases are possible. The Mnesia keeper node is the "
"master of the corresponding Pacemaker resource for RabbitMQ; when it fails, "
"the result is a full AMQP cluster downtime interval. Normally, its SLA is no "
"more than several minutes. Failure of another node that is a slave of the "
"corresponding Pacemaker resource for RabbitMQ results in no AMQP cluster "
"downtime at all."
msgstr ""
"インフラ層では、SLA は RabbitMQ クラスターが再構成されるまでの時間です。いく"
"つかの場合では実現できます。Mnesia keeper ノードは、対応する RabbitMQ 用 "
"Pacemaker リソースのマスターです。停止したとき、結果として AMQP クラスターの"
"停止時間になります。通常、その SLA は、数分間より長くなることはありません。対"
"応する RabbitMQ 用 Pacemaker リソースのスレーブになっている、他のノードの停止"
"により AMQP クラスターが停止することはありません。"
msgid ""
"Once completed, commit your configuration changes by entering :command:"
"`commit` from the :command:`crm configure` menu. Pacemaker then starts the "
"Block Storage API service and its dependent resources on one of your nodes."
msgstr ""
"これらの手順の完了後、:command:`crm configure` メニューから :command:"
"`commit` と入力し、設定の変更をコミットします。Pacemaker は Block Storage "
"API サービスおよび依存するリソースを同じノードに起動します。"
msgid ""
"Once completed, commit your configuration changes by entering :command:"
"`commit` from the :command:`crm configure` menu. Pacemaker then starts the "
"Shared File Systems API service and its dependent resources on one of your "
"nodes."
msgstr ""
"これらの手順の完了後、:command:`crm configure` メニューから :command:"
"`commit` と入力し、設定の変更をコミットします。Pacemaker は Shared File "
"Systems API サービスおよび依存するリソースを同じノードに起動します。"
msgid ""
"Once configured (see example file below), add HAProxy to the cluster and "
"ensure the VIPs can only run on machines where HAProxy is active:"
msgstr ""
"設定すると (以下のサンプルファイル参照)、HAProxy をクラスターに追加して、仮"
"想 IP が HAProxy の動作しているマシンにおいてのみ動作できることを確認してくだ"
"さい。"
msgid ""
"Once created, the :file:`corosync.conf` file (and the :file:`authkey` file "
"if the secauth option is enabled) must be synchronized across all cluster "
"nodes."
msgstr ""
"作成後、 :file:`corosync.conf` ファイル (および、secauth オプションが有効化さ"
"れている場合、 :file:`authkey` ファイル) が、すべてのクラスターノードにわたり"
"同期されている必要があります。"
msgid ""
"Once the database server starts, check the cluster status using the "
"``wsrep_cluster_size`` status variable. From the database client, run the "
"following command:"
msgstr ""
"データベースサーバーが起動すると、``wsrep_cluster_size`` 状態変数を使用して、"
"クラスター状態を確認します。データベースクライアントから、以下のコマンドを実"
"行します。"
msgid ""
"One physical server can support multiple nodes, each of which supports "
"almost any number of network interfaces."
msgstr ""
"1 台の物理サーバーで複数のノードを構築できます。各ノードは複数のネットワーク"
"インターフェースを持てます。"
msgid ""
"One uses a cluster manager such as Pacemaker or Veritas to co-ordinate the "
"actions of the various services across a set of machines. Since we are "
"focused on FOSS, we will refer to this as the Pacemaker architecture."
msgstr ""
"あるものは、Pacemaker や Veritas などのクラスターマネージャーを使用して、複数"
"のマシンにまたがるさまざまなサービスの動作を調整します。私たちは FOSS に注力"
"しているため、Pacemaker のアーキテクチャーを参照します。"
msgid ""
"OpenStack APIs, these are HTTP(s) stateless services written in python, easy "
"to duplicate and mostly easy to load balance."
msgstr ""
"OpenStack API。これらは HTTP のステートレスサービスです。Python で書かれてい"
"て、簡単に冗長化でき、かなり簡単に負荷分散できます。"
msgid "OpenStack Block Storage"
msgstr "OpenStack Block Storage"
msgid "OpenStack Compute"
msgstr "OpenStack Compute"
msgid "OpenStack High Availability Guide"
msgstr "OpenStack 高可用性ガイド"
msgid "OpenStack Networking"
msgstr "OpenStack Networking"
msgid ""
"OpenStack currently meets such availability requirements for its own "
"infrastructure services, meaning that an uptime of 99.99% is feasible for "
"the OpenStack infrastructure proper. However, OpenStack does not guarantee "
"99.99% availability for individual guest instances."
msgstr ""
"OpenStack 自体のインフラストラクチャーは、現在その可用性要件を満たせます。つ"
"まり、適切な OpenStack インフラストラクチャーの 99.99% の稼働率が実現可能で"
"す。しかしながら、OpenStack は個々のゲストインスタンスの可用性 99.99% を保証"
"できません。"
msgid ""
"OpenStack is a set of multiple services exposed to the end users as HTTP(s) "
"APIs. Additionally, for own internal usage OpenStack requires SQL database "
"server and AMQP broker. The physical servers, where all the components are "
"running are often called controllers. This modular OpenStack architecture "
"allows to duplicate all the components and run them on different "
"controllers. By making all the components redundant it is possible to make "
"OpenStack highly-available."
msgstr ""
"OpenStack は、HTTP(s) API としてエンドユーザーに公開される、複数のサービス群"
"です。さらに、その内部利用のために、OpenStack は SQL データベースサーバーと "
"AMQP ブローカーを必要とします。すべてのコンポーネントが動作している、物理サー"
"バーはよくコントローラーと呼ばれます。このモジュール型の OpenStack アーキテク"
"チャーにより、すべてのコンポーネントを複製して、それらを別々のコントローラー"
"で実行できます。すべてのコンポーネントを冗長にすることにより、OpenStack の高"
"可用性を実現できます。"
msgid "OpenStack network nodes contain:"
msgstr "OpenStack ネットワークノードでは、以下のものが動作します。"
msgid ""
"OpenStack services are configured with the list of these IP addresses so "
"they can select one of the addresses from those available."
msgstr ""
"OpenStack サービスは、利用できるものから 1 つを選択できるよう、これらの IP ア"
"ドレスの一覧を用いて設定されます。"
msgid ""
"OpenStack supports a single-controller high availability mode that is "
"managed by the services that manage highly available environments but is not "
"actually highly available because no redundant controllers are configured to "
"use for failover. This environment can be used for study and demonstration "
"but is not appropriate for a production environment."
msgstr ""
"OpenStack は、シングルコントローラーの高可用性モードをサポートします。これ"
"は、高可用性環境を管理するソフトウェアにより、サービスが管理されますが、コン"
"トローラーがフェイルオーバーのために冗長化設定されていないため、実際には高可"
"用性ではありません。この環境は、学習やデモのために使用できますが、本番環境と"
"しては適していません。"
msgid "Overview of high availability storage"
msgstr "高可用性ストレージの概要"
msgid "Overview of highly-available compute nodes"
msgstr "高可用性コンピュートノードの概要"
msgid "Overview of highly-available controllers"
msgstr "高可用性コントローラーの概要"
msgid "Pacemaker cluster stack"
msgstr "Pacemaker クラスタースタック"
msgid ""
"Pacemaker does not inherently (need or want to) understand the applications "
"it manages. Instead, it relies on resource agents (RAs), scripts that "
"encapsulate the knowledge of how to start, stop, and check the health of "
"each application managed by the cluster."
msgstr ""
"Pacemaker は、管理するアプリケーションを本質的に理解してません (必要ありませ"
"ん)。代わりに、リソースエージェント (RA) に依存します。これは、クラスターによ"
"り管理される各アプリケーションの起動、停止、ヘルスチェック方法に関する知識を"
"隠蔽するスクリプトです。"
msgid ""
"Pacemaker relies on the `Corosync <http://corosync.github.io/corosync/>`_ "
"messaging layer for reliable cluster communications. Corosync implements the "
"Totem single-ring ordering and membership protocol. It also provides UDP and "
"InfiniBand based messaging, quorum, and cluster membership to Pacemaker."
msgstr ""
"Pacemaker は、高信頼なクラスター通信のために `Corosync <http://corosync."
"github.io/corosync/>`_ メッセージング層に依存します。Corosync は、Totem シン"
"グルリングによる順番制御とメンバーシッププロトコルを実装します。また、UDP や "
"InfiniBand ベースのメッセージング、クォーラム、クラスターメンバーシップを "
"Pacemaker に提供します。"
msgid ""
"Pacemaker ships with a large set of OCF agents (such as those managing MySQL "
"databases, virtual IP addresses, and RabbitMQ), but can also use any agents "
"already installed on your system and can be extended with your own (see the "
"`developer guide <http://www.linux-ha.org/doc/dev-guides/ra-dev-guide."
"html>`_)."
msgstr ""
"Pacemaker は、(MySQL データベース、仮想 IP アドレス、RabbitMQ などの) OCF "
"エージェントをたくさん同梱していますが、お使いのシステムにインストールした任"
"意のエージェントも使用できます。また、自身で拡張することもできます "
"(`developer guide <http://www.linux-ha.org/doc/dev-guides/ra-dev-guide."
"html>`_ 参照)。"
msgid ""
"Pacemaker uses an event-driven approach to cluster state processing. The "
"``cluster-recheck-interval`` parameter (which defaults to 15 minutes) "
"defines the interval at which certain Pacemaker actions occur. It is usually "
"prudent to reduce this to a shorter interval, such as 5 or 3 minutes."
msgstr ""
"Pacemaker は、クラスターの状態を処理するために、イベントドリブンのアプローチ"
"を使用します。 ``cluster-recheck-interval`` パラメーター (デフォルトは 15 "
"分) が、ある Pacemaker のアクションが発生する間隔を定義します。通常、5 分や "
"3 分など、より短い間隔に減らすことは慎重になるべきです。"
msgid ""
"Packages in the Galera Cluster Debian repository are now available for "
"installation on your system."
msgstr ""
"これで Galera Cluster Debian リポジトリーにあるパッケージがお使いのシステムで"
"利用できます。"
msgid ""
"Packages in the Galera Cluster Red Hat repository are not available for "
"installation on your system."
msgstr ""
"これで Galera Cluster Red Hat リポジトリーにあるパッケージがお使いのシステム"
"で利用できます。"
msgid ""
"Packages in the Galera Cluster SUSE repository are now available for "
"installation."
msgstr ""
"これで Galera Cluster SUSE リポジトリーにあるパッケージがお使いのシステムで利"
"用できます。"
msgid "Parameter"
msgstr "パラメーター"
msgid "Percona XtraDB Cluster"
msgstr "Percona XtraDB Cluster"
msgid "Percona XtraDB Cluster:"
msgstr "Percona XtraDB Cluster:"
msgid ""
"Persistent block storage can survive instance termination and can also be "
"moved across instances like any external storage device. Cinder also has "
"volume snapshots capability for backing up the volumes."
msgstr ""
"永続ブロックストレージは、インスタンス終了後に残存して、任意の外部ストレージ"
"デバイスのようにインスタンスを越えて移動できます。Cinder は、ボリュームをバッ"
"クアップするために、ボリュームスナップショット機能も持ちます。"
msgid ""
"Persistent storage exists outside all instances. Two types of persistent "
"storage are provided:"
msgstr ""
"永続ストレージは、すべてのインスタンスの外部にあります。2 種類の永続ストレー"
"ジが提供されます。"
msgid "Possible options are:"
msgstr "利用できるオプションは次のとおりです。"
msgid ""
"Preventing single points of failure can depend on whether or not a service "
"is stateless."
msgstr ""
"単一障害点をなくせるかは、サービスがステートレスであるかに依存する場合があり"
"ます。"
msgid "Processor"
msgstr "プロセッサー"
msgid ""
"Production servers should run (at least) three RabbitMQ servers; for testing "
"and demonstration purposes, it is possible to run only two servers. In this "
"section, we configure two nodes, called ``rabbit1`` and ``rabbit2``. To "
"build a broker, we need to ensure that all nodes have the same Erlang cookie "
"file."
msgstr ""
"本番サーバーは、(少なくとも) 3 つの RabbitMQ サーバーを実行すべきです。テスト"
"やデモの目的の場合、サーバーを 2 つだけ実行することもできます。このセクション"
"では、``rabbit1`` と ``rabbit2`` という 2 つのノードを設定します。ブローカー"
"を構築するために、すべてのノードがきちんと同じ Erlang クッキーファイルを持つ"
"必要があります。"
msgid "Proxy server"
msgstr "プロキシーサーバー"
msgid "Query the quorum status"
msgstr "クォーラム状態を問い合わせます"
msgid "RAID drives"
msgstr "RAID ドライブ"
msgid "RHEL, Fedora, CentOS"
msgstr "RHEL, Fedora, CentOS"
msgid "RabbitMQ"
msgstr "RabbitMQ"
msgid "RabbitMQ HA cluster host:port pairs:"
msgstr "RabbitMQ HA クラスターの「ホスト:ポート」のペア:"
msgid ""
"RabbitMQ nodes fail over both on the application and the infrastructure "
"layers."
msgstr ""
"RabbitMQ ノードは、アプリケーションとインフラ層の両方においてフェイルオーバー"
"します。"
msgid ""
"Rather than configuring neutron here, we should simply mention physical "
"network HA methods such as bonding and additional node/network requirements "
"for L3HA and DVR for planning purposes."
msgstr ""
"ここで neutron を設定する代わりに、単にボンディングや物理的なネットワークの "
"HA について言及します。また、計画するために L3HA と DVR の追加ノードとネット"
"ワーク要件について言及します。"
msgid "Receive notifications of quorum state changes"
msgstr "クォーラムの状態変更の通知を受け付けます"
msgid "Recommended for testing."
msgstr "テスト向けの推奨。"
msgid "Recommended solution by the Tooz project."
msgstr "Tooz プロジェクトによる推奨ソリューション。"
msgid "Red Hat"
msgstr "Red Hat"
msgid "Redundancy and failover"
msgstr "冗長性とフェールオーバー"
msgid "Refresh ``zypper``:"
msgstr "``zypper`` を最新化します。"
msgid ""
"Regardless of which flavor you choose, it is recommended that the clusters "
"contain at least three nodes so that we can take advantage of `quorum "
"<quorum_>`_."
msgstr ""
"選択したフレーバーに関わらず、`quorum <quorum_>`_ の利点を得るために、少なく"
"とも 3 ノードを持つクラスターを推奨します。"
msgid "Remote backup facilities"
msgstr "リモートバックアップ機能"
msgid ""
"Replace ``CINDER_DBPASS`` with the password you chose for the Block Storage "
"database."
msgstr ""
"``CINDER_DBPASS`` を Block Storage データベース用に選択したパスワードで置き換"
"えます。"
msgid ""
"Replace ``CINDER_DBPASS`` with the password you chose for the Block Storage "
"database. Replace ``CINDER_PASS`` with the password you chose for the "
"``cinder`` user in the Identity service."
msgstr ""
"``CINDER_DBPASS`` を Block Storage サービス用に選択したパスワードで置き換えま"
"す。``CINDER_PASS`` を Identity サービスで ``cinder`` ユーザー用に選択したパ"
"スワードで置き換えます。"
msgid ""
"Replace ``DISTRO`` with the name of the distribution you use, such as "
"``centos`` or ``fedora``. Replace ``RELEASE`` with the release number, such "
"as ``7`` for CentOS 7. Replace ``ARCH`` with your system architecture, such "
"as ``x86_64``"
msgstr ""
"``DISTRO`` を ``centos`` や ``fedora`` などの使用するディストリビューションの"
"名前で置き換えます。 ``RELEASE`` を CentOS 7 向けの ``7`` などのリリース番号"
"で置き換えます。 ``ARCH`` を ``x86_64`` などのシステムアーキテクチャーで置き"
"換えます。"
msgid ""
"Replace ``VERSION`` with the version of MariaDB you want to install, such as "
"``5.6`` or ``10.0``. Replace ``PACKAGE`` with the package type and "
"architecture, such as ``rhel6-amd64`` for Red Hat 6 on 64-bit architecture."
msgstr ""
"インストールしたい MariaDB のバージョン、``5.6`` や ``10.0`` などで "
"``VERSION`` を置き換えます。パッケージ種別とアーキテクチャー、Red Hat 6 64 -"
"bit アーキテクチャー向けの ``rhel6-amd64`` などで ``PACKAGE`` を置き換えま"
"す。"
msgid ""
"Replace the IP addresses given here with comma-separated list of each "
"OpenStack database in your cluster."
msgstr ""
"ここで指定された IP アドレスを、お使いのクラスターにある OpenStack の各データ"
"ベースのコンマ区切りリストに置き換えます。"
msgid ""
"Restart AppArmor. For servers that use ``init``, run the following command:"
msgstr ""
"AppArmor を再起動します。``init`` を使用するサーバーの場合、以下のコマンドを"
"実行します。"
msgid "Restarting the cluster"
msgstr "クラスターの再起動"
msgid "Run Networking DHCP agent"
msgstr "Networking DHCP エージェントの実行"
msgid "Run Networking L3 agent"
msgstr "Networking L3 エージェントの実行"
msgid "Run Networking LBaaS agent"
msgstr "Networking LBaaS エージェントの実行"
msgid "Run Networking metadata agent"
msgstr "Networking メタデータエージェントの実行"
msgid "Run the following commands on each node except the first one:"
msgstr "1 番目のノード以外の各ノードで以下のコマンドを実行します。"
msgid "SELinux"
msgstr "SELinux"
msgid "SELinux and AppArmor set to permit access to ``mysqld``;"
msgstr "SELinux や AppArmor が ``mysqld`` にアクセスを許可していること。"
msgid "SLES 12"
msgstr "SLES 12"
msgid ""
"SQL relational database server provides stateful type consumed by other "
"components. Supported databases are MySQL, MariaDB, and PostgreSQL. Making "
"SQL database redundant is complex."
msgstr ""
"SQL リレーショナルデータベースサーバーは、他のコンポーネントにより利用される"
"ステートフルな状態を提供します。サポートされるデータベースは、MySQL、"
"MariaDB、PostgreSQL です。SQL データベースを冗長化することは複雑です。"
msgid "SUSE"
msgstr "SUSE"
msgid "Search in this guide"
msgstr "ガイド内検索"
msgid ""
"Security-Enhanced Linux is a kernel module for improving security on Linux "
"operating systems. It is commonly enabled and configured by default on Red "
"Hat-based distributions. In the context of Galera Cluster, systems with "
"SELinux may block the database service, keep it from starting or prevent it "
"from establishing network connections with the cluster."
msgstr ""
"Security-Enhanced Linux は、Linux オペレーティングシステムにおいてセキュリ"
"ティーを向上させるためのカーネルモジュールです。Red Hat 系のディストリビュー"
"ションでは、一般的にデフォルトで有効化され、設定されています。Galera Cluster "
"の観点では、SELinux を有効化したシステムは、データベースサービスをブロックす"
"るかもしれません。また、クラスターを起動しても、ネットワーク接続を確立できな"
"いかもしれません。"
msgid ""
"See :doc:`networking-ha` for more information about configuring Networking "
"for high availability."
msgstr ""
"Networking の高可用性の設定は :doc:`networking-ha` を参照してください。"
msgid "Segregated"
msgstr "Segregated"
msgid "Service monitoring and recovery required"
msgstr "サービスモニタリングおよび必要なリカバリー"
msgid ""
"Services like RabbitMQ and Galera have complicated boot-up sequences that "
"require co-ordination, and often serialization, of startup operations across "
"all machines in the cluster. This is especially true after site-wide failure "
"or shutdown where we must first determine the last machine to be active."
msgstr ""
"RabbitMQ や Galera などのサービスは、複雑な起動順番を持ちます。クラスター内の"
"全マシンに渡り、起動処理の協調動作を必要とし、しばしば順番に実行する必要があ"
"ります。とくに、サイト全体の障害後、最後にアクティブにするマシンを判断する必"
"要のあるシャットダウンのときに当てはまります。"
msgid "Set SELinux to allow the database server to run:"
msgstr "SELinux を設定して、データベースサーバーの実行を許可します。"
msgid "Set a password for hacluster user **on each host**."
msgstr "**各ホストにおいて** hacluster ユーザーのパスワードを設定します。"
msgid "Set automatic L3 agent failover for routers"
msgstr "ルーター向け L3 エージェントの自動フェイルオーバーの設定"
msgid "Set basic cluster properties"
msgstr "基本的なクラスターのプロパティの設定"
msgid "Set up Corosync with multicast"
msgstr "マルチキャストを使う場合の Corosync の設定"
msgid "Set up Corosync with unicast"
msgstr "ユニキャストを使う場合の Corosync の設定"
msgid "Set up Corosync with votequorum library"
msgstr "votequorum ライブラリーを使う場合の Corosync の設定"
msgid "Set up the cluster with `crmsh`"
msgstr "`crmsh` を用いたクラスターのセットアップ"
msgid "Set up the cluster with `pcs`"
msgstr "`pcs` を用いたセットアップ"
msgid ""
"Setting ``last_man_standing`` to 1 enables the Last Man Standing (LMS) "
"feature; by default, it is disabled (set to 0). If a cluster is on the "
"quorum edge (``expected_votes:`` set to 7; ``online nodes:`` set to 4) for "
"longer than the time specified for the ``last_man_standing_window`` "
"parameter, the cluster can recalculate quorum and continue operating even if "
"the next node will be lost. This logic is repeated until the number of "
"online nodes in the cluster reaches 2. In order to allow the cluster to step "
"down from 2 members to only 1, the ``auto_tie_breaker`` parameter needs to "
"be set; this is not recommended for production environments."
msgstr ""
"``last_man_standing`` を 1 に設定することにより、Last Man Standing (LMS) 機能"
"を有効化できます。デフォルトで、無効化されています (0 に設定)。クラスターが、"
"``last_man_standing_window`` パラメーターに指定した時間より長く、クォーラム"
"エッジ (``expected_votes:`` が 7 に設定、 ``online nodes:`` が 4 に設定) にあ"
"る場合、クラスターはクォーラムを再計算して、次のノードが失われても動作を継続"
"します。この論理は、クラスターのオンラインノードが 2 になるまで繰り返されま"
"す。クラスターが 2 つのメンバーから 1 つだけに減ることを許可するために、 "
"``auto_tie_breaker`` パラメーターを設定する必要があります。これは本番環境では"
"推奨されません。"
msgid ""
"Setting ``wait_for_all`` to 1 means that, When starting up a cluster (all "
"nodes down), the cluster quorum is held until all nodes are online and have "
"joined the cluster for the first time. This parameter is new in Corosync 2.0."
msgstr ""
"``wait_for_all`` を 1 に設定することは、クラスター起動 (全ノードダウン) 時、"
"クラスターのクォーラムは、すべてのノードがオンラインになり、まずクラスターに"
"参加するまで保持されることを意味しますこのパラメーターは Corosync 2.0 の新機"
"能です。"
msgid ""
"Setting the ``pe-warn-series-max``, ``pe-input-series-max`` and ``pe-error-"
"series-max`` parameters to 1000 instructs Pacemaker to keep a longer history "
"of the inputs processed and errors and warnings generated by its Policy "
"Engine. This history is useful if you need to troubleshoot the cluster."
msgstr ""
"パラメーター ``pe-warn-series-max``, ``pe-input-series-max``, ``pe-error-"
"series-max`` を 1000 に設定することにより、Pacemaker が処理した入力履歴、ポリ"
"シーエンジンにより生成されたログと警告を保持するよう指定できます。この履歴"
"は、クラスターのトラブルシューティングを必要とする場合に役立ちます。"
msgid "Simplified process for adding/removing of nodes"
msgstr "ノードの追加と削除を簡単化したプロセス"
msgid ""
"Since all API access is directed to the proxy, adding or removing nodes has "
"no impact on the configuration of other services. This can be very useful in "
"upgrade scenarios where an entirely new set of machines can be configured "
"and tested in isolation before telling the proxy to direct traffic there "
"instead."
msgstr ""
"すべての API アクセスがプロキシーに向けられているので、ノードの追加や削除は、"
"他のサービスの設定に影響を与えません。これにより、プロキシーが新しいマシン群"
"に通信を向ける前に、それらを独立した環境において設定してテストする、アップグ"
"レードシナリオにおいて非常に役立ちます。"
msgid ""
"Since the cluster is a single administrative domain, it is generally "
"accepted to use the same password on all nodes."
msgstr ""
"クラスターは単一の管理ドメインなので、一般的にすべてのノードで同じパスワード"
"を使用できます。"
msgid "Single-controller high availability mode"
msgstr "シングルコントローラーの高可用性モード"
msgid ""
"Specifying ``corosync_votequorum`` enables the votequorum library; this is "
"the only required option."
msgstr ""
"``corosync_votequorum`` を指定することにより、votequorum ライブラリーを有効化"
"します。これは唯一の必須オプションです。"
msgid "Start Corosync"
msgstr "Corosync の開始"
msgid "Start Pacemaker"
msgstr "Pacemaker の開始"
msgid ""
"Start the ``xinetd`` daemon for ``clustercheck``. For servers that use "
"``init``, run the following commands:"
msgstr ""
"``clustercheck`` の ``xinetd`` デーモンを起動します。 ``init`` を使用するサー"
"バーの場合、以下のコマンドを実行します。"
msgid ""
"Start the database server on all other cluster nodes. For servers that use "
"``init``, run the following command:"
msgstr ""
"すべての他のクラスターノードにおいてデータベースサーバーを起動します。"
"``init`` を使用するサーバーに対して、以下のコマンドを実行します。"
msgid ""
"Start the message queue service on all nodes and configure it to start when "
"the system boots."
msgstr ""
"すべてのノードにおいてメッセージキューサービスを起動し、システム起動時に起動"
"するよう設定します。"
msgid ""
"Starting up one instance of the service on several controller nodes, when "
"they can coexist and coordinate by other means. RPC in ``nova-conductor`` is "
"one example of this."
msgstr ""
"いくつかのコントローラノードで、一つのサービスインスタンスが開始します。それ"
"らは、ほかの意味で、共存、調和できるということであり、 ``nova-conductor`` の "
"RPC はその例の一つです。"
msgid "Stateful service"
msgstr "ステートフルサービス"
msgid "Stateful services may be configured as active/passive or active/active:"
msgstr ""
"ステートフルサービスは、アクティブ/パッシブまたはアクティブ/アクティブとして"
"設定できます。"
msgid "Stateless service"
msgstr "ステートレスサービス"
msgid "Stateless vs. stateful services"
msgstr "ステートレスサービスとステートフルサービス"
msgid "Storage"
msgstr "ストレージ"
msgid "Storage back end"
msgstr "ストレージバックエンド"
msgid "Storage components"
msgstr "ストレージ構成要素"
msgid "TBA"
msgstr "TBA"
msgid ""
"TCP generally holds on to hope for a long time. A ballpark estimate is "
"somewhere on the order of tens of minutes (30 minutes is commonly "
"referenced). During this time it will keep probing and trying to deliver the "
"data."
msgstr ""
"TCP は一般的に長く接続されています。概算として数十分 (一般的に 30 分として参"
"照されます) のレベルです。この間、プルーブして、データを配送しようとします。"
msgid "Telemetry"
msgstr "Telemetry"
msgid "Telemetry central agent"
msgstr "Telemetry 中央エージェント"
msgid ""
"The :command:`crm configure` command supports batch input, so you may copy "
"and paste the above into your live Pacemaker configuration and then make "
"changes as required. For example, you may enter edit ``p_ip_glance-api`` "
"from the :command:`crm configure` menu and edit the resource to match your "
"preferred virtual IP address."
msgstr ""
":command:`crm configure` はバッチ入力をサポートします。そのため、現在の "
"pacemaker 設定の中に上をコピー・ペーストし、適宜変更を反映できます。例えば、"
"お好みの仮想 IP アドレスに一致させるために、:command:`crm configure` メニュー"
"から ``edit p_ip_glance-api`` と入力し、リソースを編集できます。"
msgid ""
"The :command:`crm configure` supports batch input, so you may copy and paste "
"the lines above into your live Pacemaker configuration and then make changes "
"as required. For example, you may enter ``edit p_ip_manila-api`` from the :"
"command:`crm configure` menu and edit the resource to match your preferred "
"virtual IP address."
msgstr ""
":command:`crm configure` はバッチ入力をサポートします。そのため、現在の "
"pacemaker 設定の中に上の行をコピー・ペーストし、適宜変更を反映できます。例え"
"ば、お好みの仮想 IP アドレスに一致させるために、:command:`crm configure` メ"
"ニューから ``edit p_ip_manila-api`` と入力し、リソースを編集できます。"
msgid ""
"The Galera cluster configuration directive ``backup`` indicates that two of "
"the three controllers are standby nodes. This ensures that only one node "
"services write requests because OpenStack support for multi-node writes is "
"not yet production-ready."
msgstr ""
"この Galera cluster の設定ディレクティブ ``backup`` は、3 つのコントローラー"
"の内 2 つがスタンバイノードであることを意味します。"
msgid ""
"The Memcached client implements hashing to balance objects among the "
"instances. Failure of an instance only impacts a percentage of the objects "
"and the client automatically removes it from the list of instances. The SLA "
"is several minutes."
msgstr ""
"Memcached クライアントは、インスタンス間でオブジェクトを分散するハッシュ機能"
"を持ちます。インスタンスの障害は、オブジェクトの使用率のみに影響します。クラ"
"イアントは、インスタンスの一覧から自動的に削除されます。SLA は数分です。"
msgid ""
"The OpenStack Image service offers a service for discovering, registering, "
"and retrieving virtual machine images. To make the OpenStack Image API "
"service highly available in active / passive mode, you must:"
msgstr ""
"OpenStack Image サービスは、仮想マシンイメージを検索、登録、取得するための"
"サービスを提供します。OpenStack Image API サービスをアクティブ/パッシブモード"
"で高可用性にするために、以下が必要になります。"
msgid ""
"The OpenStack Installation Guides also include a list of the services that "
"use passwords with important notes about using them."
msgstr ""
"OpenStack インストールガイドは、パスワードを使用するサービスの一覧、それらを"
"使用する上の重要な注意点もまとめてあります。"
msgid ""
"The OpenStack Networking service has a scheduler that lets you run multiple "
"agents across nodes; the DHCP agent can be natively highly available. To "
"configure the number of DHCP agents per network, modify the "
"``dhcp_agents_per_network`` parameter in the :file:`/etc/neutron/neutron."
"conf` file. By default this is set to 1. To achieve high availability, "
"assign more than one DHCP agent per network."
msgstr ""
"OpenStack Networking サービスには、ノードにまたがって複数のエージェントを実行"
"できるスケジューラーがあります。 DHCP エージェントは本質的に高可用性がありま"
"す。ネットワークあたりの DHCP エージェント数を設定するには、 file:`/etc/"
"neutron/neutron.conf` ファイルの``dhcp_agents_per_network`` パラメーターを変"
"更します。このパラメーターのデフォルト値は です。高可用性を持たせるには、"
"ネットワークあたりの DHCP エージェント数を 以上にする必要があります。"
msgid "The Pacemaker architecture"
msgstr "Pacemaker アーキテクチャー"
msgid ""
"The Pacemaker service also requires an additional configuration file ``/etc/"
"corosync/uidgid.d/pacemaker`` to be created with the following content:"
msgstr ""
"Pacemaker サービスは、以下の内容で作成された、追加の設定ファイル ``/etc/"
"corosync/uidgid.d/pacemaker`` も必要とします。"
msgid ""
"The Telemetry API service configuration does not have the ``option httpchk`` "
"directive as it cannot process this check properly. TODO: explain why the "
"Telemetry API is so special"
msgstr ""
"The Telemetry API service configuration does not have the ``option httpchk`` "
"directive as it cannot process this check properly. TODO: explain why the "
"Telemetry API is so special"
msgid ""
"The Telemetry central agent can be configured to partition its polling "
"workload between multiple agents, enabling high availability."
msgstr ""
"Telemetry 中央エージェントは、高可用性を有効化した、複数のエージェント間で"
"ポーリングする負荷を分割するよう設定できます。"
msgid ""
"The `Installation Guide <http://docs.openstack.org/liberty/#install-"
"guides>`_ gives instructions for installing multiple compute nodes. To make "
"them highly available, you must configure the environment to include "
"multiple instances of the API and other services."
msgstr ""
"`インストールガイド <http://docs.openstack.org/liberty/#install-guides>`_ に"
"複数のコンピュートノードのインストール方法について記載されています。それらを"
"高可用性にするために、API と他のサービスの複数インスタンスなど、環境を設定す"
"る必要があります。"
msgid ""
"The `Tooz <https://pypi.python.org/pypi/tooz>`__ library provides the "
"coordination within the groups of service instances. It provides an API "
"above several back ends that can be used for building distributed "
"applications."
msgstr ""
"`Tooz <https://pypi.python.org/pypi/tooz>`__ ライブラリーは、サービスインスタ"
"ンスのグループ内に条件を提供します。分散アプリケーションを構築するために使用"
"できる、いくつかのバックエンドに上の API を提供します。"
msgid ""
"The ``admin_bind_host`` parameter lets you use a private network for admin "
"access."
msgstr ""
"``admin_bind_host`` パラメーターにより、管理アクセスのためのプライベートネッ"
"トワークを使用できます。"
msgid ""
"The ``bindnetaddr`` is the network address of the interfaces to bind to. The "
"example uses two network addresses of /24 IPv4 subnets."
msgstr ""
"``bindnetaddr`` は、バインドするインターフェースのネットワークアドレスです。"
"この例は、2 つの /24 IPv4 サブネットを使用します。"
msgid ""
"The ``token`` value specifies the time, in milliseconds, during which the "
"Corosync token is expected to be transmitted around the ring. When this "
"timeout expires, the token is declared lost, and after "
"``token_retransmits_before_loss_const lost`` tokens, the non-responding "
"processor (cluster node) is declared dead. In other words, ``token × "
"token_retransmits_before_loss_const`` is the maximum time a node is allowed "
"to not respond to cluster messages before being considered dead. The default "
"for token is 1000 milliseconds (1 second), with 4 allowed retransmits. These "
"defaults are intended to minimize failover times, but can cause frequent "
"\"false alarms\" and unintended failovers in case of short network "
"interruptions. The values used here are safer, albeit with slightly extended "
"failover times."
msgstr ""
"``token`` の値は、Corosync トークンがリング内を転送されることが予想される時間"
"をミリ秒単位で指定します。このタイムアウトを過ぎると、トークンが失われます。 "
"``token_retransmits_before_loss_const lost`` トークンの後、応答しないプロセッ"
"サー (クラスターノード) が停止していると宣言されます。言い換えると、 ``token "
"× token_retransmits_before_loss_const`` は、ノードが停止とみなされるまでに、"
"クラスターメッセージに応答しないことが許される最大時間です。トークン向けのデ"
"フォルトは、1000 ミリ秒 (1 秒)、4 回の再送許可です。これらのデフォルト値は、"
"フェイルオーバー時間を最小化することを意図していますが、頻繁な「誤検知」と短"
"いネットワーク中断による意図しないフェイルオーバーを引き起こす可能性がありま"
"す。ここで使用される値は、フェイルオーバー時間がわずかに長くなりますが、より"
"安全です。"
msgid ""
"The ``transport`` directive controls the transport mechanism used. To avoid "
"the use of multicast entirely, specify the ``udpu`` unicast transport "
"parameter. This requires specifying the list of members in the ``nodelist`` "
"directive; this could potentially make up the membership before deployment. "
"The default is ``udp``. The transport type can also be set to ``udpu`` or "
"``iba``."
msgstr ""
"``transport`` ディレクティブは使用するトランスポートメカニズムを制御します。 "
"マルチキャストを完全に無効にするためには、``udpu`` ユニキャストトランスポート"
"パラメーターを指定します。``nodelist`` ディレクティブにメンバー一覧を指定する"
"必要があります。展開する前にメンバーシップを構成することができます。デフォル"
"トは ``udp`` です。トランスポート形式は ``udpu`` や ``iba`` に設定することも"
"できます。"
msgid ""
"The application layer is controlled by the ``oslo.messaging`` configuration "
"options for multiple AMQP hosts. If the AMQP node fails, the application "
"reconnects to the next one configured within the specified reconnect "
"interval. The specified reconnect interval constitutes its SLA."
msgstr ""
"アプリケーション層は、複数 AMQP ホスト向けの ``oslo.messaging`` 設定オプショ"
"ンにより制御されます。AMQP ノードが故障したとき、アプリケーションが、指定され"
"た再接続間隔で、設定された次のノードに再接続します。"
msgid ""
"The availability check of the instances is provided by heartbeat messages. "
"When the connection with an instance is lost, the workload will be "
"reassigned within the remained instances in the next polling cycle."
msgstr ""
"インスタンスの死活監視は、ハートビートメッセージによって提供されます。インス"
"タンスとの接続が失われた時、次のポーリングサイクルにて、ワークロードは、残っ"
"たインスタンスの中で再割り当てが行われます。"
msgid ""
"The benefits of this approach are the physical isolation between components "
"and the ability to add capacity to specific components."
msgstr ""
"この方法の利点は、コンポーネント間の物理的な隔離、特定のコンポーネントへの"
"キャパシティーの追加です。"
msgid ""
"The cloud controller runs on the management network and must talk to all "
"other services."
msgstr ""
"クラウドコントローラーは、管理ネットワークで動作し、他のすべてのサービスと通"
"信できる必要があります。"
msgid ""
"The cluster is fully operational with ``expected_votes`` set to 7 nodes "
"(each node has 1 vote), quorum: 4. If a list of nodes is specified as "
"``nodelist``, the ``expected_votes`` value is ignored."
msgstr ""
"このクラスターは、7 ノード (各ノードが 1 つの投票権を持つ)、クォーラム 4 つに"
"設定した ``expected_votes`` で完全に動作します。ノードの一覧は ``nodelist`` "
"に指定された場合、 ``expected_votes`` の値は無視されます。"
msgid ""
"The command :command:`crm configure` supports batch input, so you may copy "
"and paste the lines above into your live pacemaker configuration and then "
"make changes as required. For example, you may enter ``edit p_ip_cinder-"
"api`` from the :command:`crm configure` menu and edit the resource to match "
"your preferred virtual IP address."
msgstr ""
":command:`crm configure` コマンドはバッチ入力をサポートします。そのため、現在"
"の Pacemaker 設定の中に上の行をコピー・ペーストし、適宜変更を反映できます。例"
"えば、お好みの仮想 IP アドレスに一致させるために、:command:`crm configure` メ"
"ニューから ``edit p_ip_cinder-api`` と入力し、リソースを編集できます。"
msgid ""
"The commands for installing RabbitMQ are specific to the Linux distribution "
"you are using:"
msgstr ""
"RabbitMQ のインストールコマンドは、使用している Linux ディストリビューション"
"により異なります。"
msgid ""
"The common practice is to locate an HAProxy instance on each OpenStack "
"controller in the environment."
msgstr ""
"一般的なプラクティスは、環境内の各 OpenStack コントローラーに HAProxy インス"
"タンスを置くことです。"
msgid ""
"The configuration uses static routing without Virtual Router Redundancy "
"Protocol (VRRP) or similar techniques implemented."
msgstr ""
"この設定は、Virtual Router Redundancy Protocol (VRRP) や類似技術を実装するこ"
"となく、静的ルーティングを使用します。"
msgid ""
"The correct path to ``libgalera_smm.so`` given to the ``wsrep_provider`` "
"parameter."
msgstr ""
"``wsrep_provider`` パラメーターに指定された ``libgalera_smm.so`` への適切なパ"
"ス。"
msgid ""
"The current design of the neutron LBaaS agent using the HAProxy driver does "
"not allow high availability for the tenant load balancers. The neutron-lbaas-"
"agent service will be enabled and running on all controllers, allowing for "
"load balancers to be distributed across all nodes. However, a controller "
"node failure will stop all load balancers running on that node until the "
"service is recovered or the load balancer is manually removed and created "
"again."
msgstr ""
"現在の HAProxy ドライバーを使用する neutron LBaaS エージェントは、テナントの"
"ロードバランサーの高可用性を実現できません。neutron-lbaas-agent サービスが有"
"効化され、すべてのコントローラーにおいて実行され、ロードバランサーがすべての"
"ノードにわたり分散されることを許可します。しかしながら、コントローラーノード"
"の障害は、サービスが復旧されるまで、またはロードバランサーが手動で削除され、"
"再び追加されるまで、そのノードで動作しているロードバランサーをすべて停止しま"
"す。"
msgid ""
"The default node type is a disc node. In this guide, nodes join the cluster "
"as RAM nodes."
msgstr ""
"デフォルトのノード種別は disc ノードです。このガイドでは、ノードは RAM ノード"
"としてクラスターに参加します。"
msgid ""
"The first step in setting up your highly-available OpenStack cluster is to "
"install the operating system on each node. Follow the instructions in the "
"OpenStack Installation Guides:"
msgstr ""
"高可用性 OpenStack クラスターをセットアップする第一歩は、各ノードにオペレー"
"ティングシステムをインストールすることです。OpenStack インストールガイドにあ"
"る手順に従ってください。"
msgid ""
"The first step is to install the database that sits at the heart of the "
"cluster. To implement high availability, run an instance of the database on "
"each controller node and use Galera Cluster to provide replication between "
"them. Galera Cluster is a synchronous multi-master database cluster, based "
"on MySQL and the InnoDB storage engine. It is a high-availability service "
"that provides high system uptime, no data loss, and scalability for growth."
msgstr ""
"最初の手順は、クラスターの中心になるデータベースをインストールすることです。"
"高可用性を実現するために、各コントローラーノードにおいてデータベースを実行"
"し、ノード間でレプリケーションできる Galera Cluster を使用します。Galera "
"Cluster は、MySQL と InnoDB ストレージエンジンをベースにした、同期型のマルチ"
"マスターデータベースクラスターです。高いシステム稼働時間、データ損失なし、ス"
"ケーラビリティーを提供する、高可用性サービスです。"
msgid ""
"The following components are currently unable to benefit from the use of a "
"proxy server:"
msgstr ""
"以下のコンポーネントは、現在、プロキシサーバーの利用による利点はありません。"
msgid "The following components/services can work with HA queues:"
msgstr "以下のコンポーネントやサービスは、HA キューを用いて動作できます。"
msgid ""
"The following diagram shows a very simplified view of the different "
"strategies used to achieve high availability for the OpenStack services:"
msgstr ""
"以下の図は、OpenStack サービスの高可用性を達成するために使用される、さまざま"
"な方法を非常に簡略化した図を表します。"
msgid "The keepalived architecture"
msgstr "keepalived アーキテクチャー"
msgid ""
"The most popular AMQP implementation used in OpenStack installations is "
"RabbitMQ."
msgstr ""
"OpenStack 環境に使用される最も一般的な AMQP ソフトウェアは RabbitMQ です。"
msgid ""
"The neutron L3 agent is scalable, due to the scheduler that supports Virtual "
"Router Redundancy Protocol (VRRP) to distribute virtual routers across "
"multiple nodes. To enable high availability for configured routers, edit "
"the :file:`/etc/neutron/neutron.conf` file to set the following values:"
msgstr ""
"neutron L3 エージェントは、スケーラブルです。複数のノードにわたり仮想ルーター"
"を分散するために、スケジューラーが Virtual Router Redundancy Protocol (VRRP) "
"をサポートするためです。設定済みのルーターを高可用化するために、 :file:`/etc/"
"neutron/neutron.conf` ファイルを編集して、以下の値を設定します。"
msgid ""
"The other is optimized for Active/Active services that do not require any "
"inter-machine coordination. In this setup, services are started by your init "
"system (systemd in most modern distributions) and a tool is used to move IP "
"addresses between the hosts. The most common package for doing this is "
"keepalived."
msgstr ""
"他には、マシン間の調整を必要としないアクティブ/アクティブなサービスに最適化さ"
"れています。このセットアップでは、サービスが init システム (最近のディストリ"
"ビューションは systemd) により起動され、ツールがホスト間で IP アドレスを移動"
"するために使用されます。これを実行するための最も一般的なパッケージは "
"keepalived です。"
msgid ""
"The service declaration for the pacemaker service may be placed in the :file:"
"`corosync.conf` file directly or in its own separate file, :file:`/etc/"
"corosync/service.d/pacemaker`."
msgstr ""
"Pacemaker サービスに関するサービス定義は、直接 :file:`corosync.conf` ファイル"
"にあるか、単独ファイル :file:`/etc/corosync/service.d/pacemaker` にある可能性"
"があります。"
msgid ""
"The source address for the connection from HAProxy back to the client is the "
"VIP address. However the VIP address is no longer present on the host. This "
"means that the network (IP) layer deems the packet unroutable, and informs "
"the transport (TCP) layer. TCP, however, is a reliable transport. It knows "
"how to handle transient errors and will retry. And so it does."
msgstr ""
"HAProxy プロキシーからクライアントに戻る接続の送信元アドレスは、仮想 IP アド"
"レスになります。しかしながら、仮想 IP アドレスはすでにホストに存在しません。"
"つまり、ネットワーク (IP) 層はパケットをルーティングできないと判断して、トラ"
"ンスポート (TCP) 層に通知します。しかしながら、TCP は信頼できる転送になりま"
"す。一時的なエラーを処理して、再試行する方法がわかっているからです。また、実"
"際にそうします。"
msgid "The standard hardware requirements:"
msgstr "標準的なハードウェア要件:"
msgid "The steps to implement the Pacemaker cluster stack are:"
msgstr "Pacemaker クラスタースタックを実行する手順は、次のとおりです。"
msgid ""
"The votequorum library has been created to replace and eliminate qdisk, the "
"disk-based quorum daemon for CMAN, from advanced cluster configurations."
msgstr ""
"votequorum ライブラリーは、高度なクラスター設定により、qdisk、CMAN 向けディス"
"クベースのクォーラムデーモンを置き換えて除去するために作成されます。"
msgid ""
"The votequorum library is part of the corosync project. It provides an "
"interface to the vote-based quorum service and it must be explicitly enabled "
"in the Corosync configuration file. The main role of votequorum library is "
"to avoid split-brain situations, but it also provides a mechanism to:"
msgstr ""
"votequorum ライブラリーは corosync プロジェクトの一部です。投票ベースのクォー"
"ラムサービスへのインターフェースを提供し、Corosync 設定ファイルにおいて明示的"
"に有効化する必要があります。votequorum ライブラリーのおもな役割は、スプリット"
"ブレイン状態を避けるためですが、以下の機能も提供します。"
msgid ""
"There are known issues with cinder-volume that recommend setting it as "
"active-passive for now, see: https://blueprints.launchpad.net/cinder/+spec/"
"cinder-volume-active-active-support"
msgstr ""
"今のところ、cinder-volume に既知の問題があり、アクティブ/パッシブとして設定す"
"ることを推奨します。https://blueprints.launchpad.net/cinder/+spec/cinder-"
"volume-active-active-support を参照してください。"
msgid "There are primarily two HA architectures in use today."
msgstr "今日使用される主要な HA アーキテクチャーは 2 つあります。"
msgid ""
"There are three implementations of Galera Cluster: MySQL, MariaDB and "
"Percona XtraDB. For each implementation, there is a software repository that "
"provides binary packages for Debian, Red Hat, and SUSE-based Linux "
"distributions."
msgstr ""
"Galera Cluster の実装が 3 種類あります。MySQL、MariaDB、Percona XtraDB です。"
"それぞれ、Debian 系、Red Hat 系、SUSE 系の Linux ディストリビューション向けの"
"バイナリーパッケージを提供するソフトウェアリポジトリーがあります。"
msgid ""
"These agents must conform to one of the `OCF <https://github.com/"
"ClusterLabs/ OCF-spec/blob/master/ra/resource-agent-api.md>`_, `SysV Init "
"<http://refspecs.linux-foundation.org/LSB_3.0.0/LSB-Core-generic/ LSB-Core-"
"generic/iniscrptact.html>`_, Upstart, or Systemd standards."
msgstr ""
"これらのエージェントは、 `OCF <https://github.com/ClusterLabs/ OCF-spec/blob/"
"master/ra/resource-agent-api.md>`_, `SysV Init <http://refspecs.linux-"
"foundation.org/LSB_3.0.0/LSB-Core-generic/ LSB-Core-generic/iniscrptact."
"html>`_, Upstart, Systemd 標準に従う必要があります。"
msgid ""
"This architecture has some inherent limitations that should be kept in mind "
"during deployment and daily operations. The following sections describe "
"these limitations."
msgstr ""
"このアーキテクチャーは、いくつかの本来的な制約を持ちます。導入や日々の運用に"
"おいて心に留めておく必要があります。以下のセクションは、これらの制限について"
"記載します。"
msgid ""
"This chapter describes the basic environment for high availability, such as "
"hardware, operating system, common services."
msgstr ""
"この章は高可用性を実現するための基本的な環境、例えばハードウェアやオペレー"
"ションシステム、共通サービスについて説明します。"
msgid ""
"This configuration creates ``p_cinder-api``, a resource for managing the "
"Block Storage API service."
msgstr ""
"この設定は Block Storage API サービスを管理するためのリソース ``p_cinder-"
"api`` を作成します。"
msgid ""
"This configuration creates ``p_glance-api``, a resource for managing the "
"OpenStack Image API service."
msgstr ""
"この設定は ``p_glance-api`` を作成します。これは OpenStack Image API サービス"
"を管理するリソースです。"
msgid ""
"This configuration creates ``p_keystone``, a resource for managing the "
"OpenStack Identity service."
msgstr ""
"この設定は OpenStack Identity サービスを管理するためのリソース "
"``p_keystone`` を作成します。"
msgid ""
"This configuration creates ``p_manila-api``, a resource for managing the "
"Shared File Systems API service."
msgstr ""
"この設定は Shared File Systems API サービスを管理するためのリソース "
"``p_manila-api`` を作成します。"
msgid ""
"This configuration creates ``vip``, a virtual IP address for use by the API "
"node (``10.0.0.11``):"
msgstr ""
"この設定は、API ノード (``10.0.0.11``) により使用される仮想 IP アドレス "
"``vip`` を作成します。"
msgid ""
"This example assumes that you are using NFS for the physical storage, which "
"will almost never be true in a production installation."
msgstr ""
"この例は、物理ストレージに NFS を使用していることを仮定します。これは、ほとん"
"どの本番環境のインストールにおいて正しくありません。"
msgid ""
"This guide describes how to install and configure OpenStack for high "
"availability. It supplements the OpenStack Installation Guides and assumes "
"that you are familiar with the material in those guides."
msgstr ""
"このガイドでは、OpenStack に高可用性を持たせるにはどのようにインストールと設"
"定を行うかを説明します。 OpenStack インストールガイドを補完する位置付けであ"
"り、インストールガイドの内容を前提に書かれています。"
msgid "This guide documents OpenStack Mitaka, and OpenStack Liberty releases."
msgstr ""
"このガイドは、OpenStack Mitaka, OpenStack Liberty のリリースを対象としていま"
"す。"
msgid ""
"This guide is a work-in-progress and changing rapidly while we continue to "
"test and enhance the guidance. Please note where there are open \"to do\" "
"items and help where you are able."
msgstr ""
"このガイドは、作成中であり、頻繁に変更されています。テストと内容の改善を継続"
"しています。「To Do」項目が残っていますので、手伝える部分があれば手伝ってくだ"
"さい。"
msgid "This guide uses the following example IP addresses:"
msgstr "このガイドは、以下の IP アドレス例を使用します。"
msgid "This is the most common option and the one we document here."
msgstr "これは最も一般的なオプションで、ここにドキュメント化します。"
msgid ""
"This is why setting the quorum to a value less than floor(n/2) + 1 is "
"dangerous. However it may be required for some specific cases, like a "
"temporary measure at a point it is known with 100% certainty that the other "
"nodes are down."
msgstr ""
"これがクォーラムの値を floor(n/2) + 1 より小さく設定することが危険な理由で"
"す。しかしながら、いくつかの特別な場合に必要となる可能性があります。例えば、"
"他のノードが 100% 確実に停止していることがわかっている場合の一時的な計測など"
"です。"
msgid ""
"This makes the instances of HAProxy act independently and fail over "
"transparently together with the network endpoints (VIP addresses) failover "
"and, therefore, shares the same SLA."
msgstr ""
"HAProxy のインスタンスが独立して動作して、ネットワークエンドポイント (仮想 "
"IP アドレス) のフェールオーバーと一緒に透過的にフェールオーバーするため、同"
"じ SLA を共有します。"
msgid ""
"This scenario can be visualized as below, where each box below represents a "
"cluster of three or more guests."
msgstr ""
"このシナリオは、以下のように可視化できます。以下の各ボックスは 3 つ以上のゲス"
"トのクラスターを表します。"
msgid "This scenario can be visualized as below."
msgstr "このシナリオは以下のように可視化できます。"
msgid ""
"This scenario has the advantage of requiring far fewer, if more powerful, "
"machines. Additionally, being part of a single cluster allows us to "
"accurately model the ordering dependencies between components."
msgstr ""
"このシナリオは、より高性能ならば、より少ないマシンを必要とする利点がありま"
"す。加えて、シングルクラスターの一部になることにより、コンポーネント間の順序"
"依存関係を正確にモデル化できます。"
msgid ""
"This section assumes that you are familiar with the `documentation <http://"
"docs.openstack.org/liberty/install-guide-ubuntu/glance.html>`_ for "
"installing the OpenStack Image API service."
msgstr ""
"このセクションは、OpenStack Image API サービスのインストールに関する `ドキュ"
"メント <http://docs.openstack.org/liberty/install-guide-ubuntu/glance."
"html>`_ に慣れていることを仮定しています。"
msgid ""
"This section discusses ways to protect against data loss in your OpenStack "
"environment."
msgstr ""
"このセクションは、お使いの OpenStack 環境におけるデータ損失から保護する方法を"
"議論します。"
msgid ""
"This value increments with each transaction, so the most advanced node has "
"the highest sequence number, and therefore is the most up to date."
msgstr ""
"この値は各トランザクションによりインクリメントされます。ほとんどの高度なノー"
"ドは、最大のシーケンス番号を持つため、ほとんど最新です。"
msgid ""
"To be sure that all data is highly available, ensure that everything is "
"stored in the MySQL database (which is also highly available):"
msgstr ""
"すべてのものを (高可用性) MySQL データベースに保存して、すべてのデータが高可"
"用性になっていることを確認します。"
msgid ""
"To configure AppArmor to work with Galera Cluster, complete the following "
"steps on each cluster node:"
msgstr ""
"各クラスターードにおいて以下の手順を実行して、Galera Cluster を正常に動作さ"
"せるために AppArmor を設定します。"
msgid ""
"To configure SELinux to permit Galera Cluster to operate, complete the "
"following steps on each cluster node:"
msgstr ""
"各クラスターードにおいて以下の手順を実行して、Galera Cluster の動作を許可す"
"るために SELinux を設定します。"
msgid ""
"To do so, stop RabbitMQ everywhere and copy the cookie from the first node "
"to each of the other node(s):"
msgstr ""
"そうするために、すべての場所で RabbitMQ を停止して、1 番目のノードのクッキー"
"を他のノードにコピーします。"
msgid ""
"To ensure that all queues except those with auto-generated names are "
"mirrored across all running nodes, set the ``ha-mode`` policy key to all by "
"running the following command on one of the nodes:"
msgstr ""
"自動生成された名前を持つキューを除いて、すべてのキューがすべての動作中のノー"
"ドで確実にミラーするために、以下のコマンドをどこかのノードで実行して、 ``ha-"
"mode`` ポリシーキーを all に設定します。"
msgid ""
"To find the most advanced cluster node, you need to check the sequence "
"numbers, or seqnos, on the last committed transaction for each. You can find "
"this by viewing ``grastate.dat`` file in database directory,"
msgstr ""
"最も高度なクラスターノードを見つけるために、各ノードの最新コミットのトランザ"
"クションにあるシーケンス番号を確認する必要があります。データベースディレクト"
"リーにある ``grastate.dat`` ファイルを表示すると、これを見つけられます。"
msgid ""
"To implement any changes made to this you must restart the HAProxy service"
msgstr ""
"これの変更を反映するために、HAProxy サービスを再起動する必要があります。"
msgid ""
"To install and configure memcached, read the `official documentation "
"<https://code.google.com/p/memcached/wiki/NewStart>`_."
msgstr ""
"memcached をインストールして設定する方法は、 `公式ドキュメント <https://code."
"google.com/p/memcached/wiki/NewStart>`_ を参照してください。"
msgid ""
"To make this configuration persistent, repeat the above commands with the :"
"option:`--permanent` option."
msgstr ""
":option:`--permanent` オプションを付けて上のコマンドを繰り返して、この設定を"
"永続化します。"
msgid "To start ``corosync`` with systemd unit file:"
msgstr "systemd ユニットファイルでcorosyncの起動"
msgid "To start ``corosync`` with the LSB init script:"
msgstr "LSBinitスクリプトでCorosync の起動"
msgid "To start ``corosync`` with upstart:"
msgstr "upstartでcorosyscの起動"
msgid "To start ``pacemaker`` with the LSB init script:"
msgstr "LSB init スクリプトを用いた ``pacemaker`` の起動"
msgid "To start ``pacemaker`` with the systemd unit file:"
msgstr "systemd ユニットファイルを用いた ``pacemaker`` の起動"
msgid "To start ``pacemaker`` with upstart:"
msgstr "upstart を用いた ``pacemaker`` の起動"
msgid "To start the cluster, complete the following steps:"
msgstr "以下の手順を実行して、クラスターを起動します。"
msgid "To verify the cluster status:"
msgstr "クラスターの状態を確認する方法:"
msgid ""
"Tooz supports `various drivers <http://docs.openstack.org/developer/tooz/"
"drivers.html>`__ including the following back end solutions:"
msgstr ""
"Tooz は、以下のバックエンドソリューションを含む、 `さまざまなドライバー "
"<http://docs.openstack.org/developer/tooz/drivers.html>`__ をサポートします。"
msgid "True"
msgstr "True (真)"
msgid ""
"Typically, an active/active installation for a stateless service maintains a "
"redundant instance, and requests are load balanced using a virtual IP "
"address and a load balancer such as HAProxy."
msgstr ""
"一般的にステートレスサービスをアクティブ / アクティブにインストールすると、冗"
"長なインスタンスを維持することになります。リクエストは HAProxy のような仮想 "
"IP アドレスとロードバランサーを使用して負荷分散されます。"
msgid "Ubuntu, Debian"
msgstr "Ubuntu, Debian"
msgid "Update the local cache."
msgstr "ローカルキャッシュを更新します。"
msgid "Use HA queues in RabbitMQ (x-ha-policy: all):"
msgstr "RabbitMQ における HA キューの使用 (x-ha-policy: all):"
msgid ""
"Use MySQL/Galera in active/passive mode to avoid deadlocks on ``SELECT ... "
"FOR UPDATE`` type queries (used, for example, by nova and neutron). This "
"issue is discussed more in the following:"
msgstr ""
"MySQL/Galera をアクティブ/パッシブモードで使用して、 ``SELECT ... FOR "
"UPDATE`` のような形式のクエリーにおけるデッドロックを避けます (例えば、nova "
"や neutron により使用されます)。この問題は、以下において詳細に議論されていま"
"す。"
msgid "Use durable queues in RabbitMQ:"
msgstr "RabbitMQ での永続キューの使用:"
msgid ""
"Use that password to authenticate to the nodes which will make up the "
"cluster. The :option:`-p` option is used to give the password on command "
"line and makes it easier to script."
msgstr ""
"このパスワードを使用して、クラスターを構成するノードに認証します。 :option:`-"
"p` オプションは、コマンドラインにおいてパスワードを指定して、スクリプト化しや"
"すくするために使用されます。"
msgid ""
"Use the :command:`corosync-cfgtool` utility with the :option:`-s` option to "
"get a summary of the health of the communication rings:"
msgstr ""
":command:`corosync-cfgtool` ユーティリティーに :option:`-s` オプションを付け"
"て実行して、コミュニケーションリングの稼働状態の概要を取得します。"
msgid ""
"Use the :command:`corosync-objctl` utility to dump the Corosync cluster "
"member list:"
msgstr ""
":command:`corosync-objctl` ユーティリティーを使用して、Corosync クラスターの"
"メンバー一覧を出力します。"
msgid ""
"Using Galera Cluster requires that you install two packages. The first is "
"the database server, which must include the wsrep API patch. The second "
"package is the Galera Replication Plugin, which enables the write-set "
"replication service functionality with the database server."
msgstr ""
"Galera Cluster を使用するために 2 つのパッケージをインストールする必要があり"
"ます。1 つ目はデータベースサーバーです。wsrep API パッチを含める必要がありま"
"す。2 つ目のパッケージは Galera Replication Plugin です。データベースサーバー"
"の書き込みセットレプリケーションサービス機能を有効にします。"
msgid "Using the ``semanage`` utility, open the relevant ports:"
msgstr "``semanage`` ユーティリティーを使用して、関連するポートを開きます。"
msgid "Value"
msgstr "値"
msgid "Verify that the nodes are running:"
msgstr "そのノードが動作していることを検証します。"
msgid ""
"We are building a cluster of RabbitMQ nodes to construct a RabbitMQ broker, "
"which is a logical grouping of several Erlang nodes."
msgstr ""
"RabbitMQ ブローカーを構成する RabbitMQ ノードのクラスターを構築しています。こ"
"れは、いくつかの Erlang ノードの論理グループです。"
msgid ""
"We have to configure the OpenStack components to use at least two RabbitMQ "
"nodes."
msgstr ""
"2 つ以上の RabbitMQ ードを使用するよう、OpenStack のコンポーネントを設定す"
"る必要があります。"
msgid ""
"We recommend HAProxy as the load balancer, however, there are many "
"alternatives in the marketplace."
msgstr ""
"ロードバランサーとして HAProxy を推奨しますが、マーケットプレースにさまざまな"
"同等品があります。"
msgid ""
"We use a check interval of 1 second, however, the timeouts vary by service."
msgstr "1 秒間隔でチェックしますが、タイムアウト値はサービスにより異なります。"
msgid "What is a cluster manager"
msgstr "クラスターマネージャーとは"
msgid ""
"When Ceph RBD is used for ephemeral volumes as well as block and image "
"storage, it supports `live migration <http://docs.openstack.org/admin-guide/"
"compute-live-migration-usage.html>`_ of VMs with ephemeral drives; LVM only "
"supports live migration of volume-backed VMs."
msgstr ""
"Ceph RBD をブロックストレージやイメージストレージと同じように一時ストレージ用"
"に使用する場合、一時ボリュームを持つ仮想マシンの `ライブマイグレーション "
"<http://docs.openstack.org/admin-guide/compute-live-migration-usage.html>` が"
"サポートされます。LVM のみがボリュームをバックエンドとした仮想マシンのライブ"
"マイグレーションをサポートします。"
msgid ""
"When configuring an OpenStack environment for study or demonstration "
"purposes, it is possible to turn off the quorum checking; this is discussed "
"later in this guide. Production systems should always run with quorum "
"enabled."
msgstr ""
"学習やデモの目的に OpenStack 環境を設定している場合、クォーラムのチェックを無"
"効化できます。このガイドで後から議論します。本番システムは必ずクォーラムを有"
"効化して実行すべきです。"
msgid ""
"When each cluster node starts, it checks the IP addresses given to the "
"``wsrep_cluster_address`` parameter and attempts to establish network "
"connectivity with a database server running there. Once it establishes a "
"connection, it attempts to join the Primary Component, requesting a state "
"transfer as needed to bring itself into sync with the cluster."
msgstr ""
"各クラスターノードが起動したとき、``wsrep_cluster_address`` パラメーターに指"
"定された IP アドレスを確認して、それで動作しているデータベースサーバーへの"
"ネットワーク接続性を確立しようとします。接続が確立されると、クラスターを同期"
"するために必要となる状態転送を要求する、Primary Component に参加しようとしま"
"す。"
msgid ""
"When installing highly-available OpenStack on VMs, be sure that your "
"hypervisor permits promiscuous mode and disables MAC address filtering on "
"the external network."
msgstr ""
"仮想マシン上に高可用性 OpenStack をインストールする場合、ハイパーバイザーが外"
"部ネットワークにおいてプロミスキャスモードを許可して、MAC アドレスフィルタリ"
"ングを無効化していることを確認してください。"
msgid ""
"When you find the correct path, run the :command:`iptables-save` command:"
msgstr ""
"適切なパスを見つけたとき、 :command:`iptables-save` コマンドを実行します。"
msgid ""
"When you finish enabling the software repository for Galera Cluster, you can "
"install it using your package manager. The particular command and packages "
"you need to install varies depending on which database server you want to "
"install and which Linux distribution you use:"
msgstr ""
"Galera Cluster のソフトウェアリポジトリーを有効化すると、パッケージマネー"
"ジャーを使用してインストールできます。インストールに必要となる具体的なコマン"
"ドやパッケージは、インストールしたいデータベースサーバーと使用する Linux ディ"
"ストリビューションにより異なります。"
msgid ""
"When you finish the installation and configuration process on each cluster "
"node in your OpenStack database, you can initialize Galera Cluster."
msgstr ""
"各ノードにおいて、お使いの OpenStack データベースのインストールと設定を完了す"
"ると、Galera Cluster を初期化できます。"
msgid ""
"When you have all cluster nodes started, log into the database client on one "
"of them and check the ``wsrep_cluster_size`` status variable again."
msgstr ""
"すべてのクラスターノードを起動したとき、どれか 1 つにデータベースクライアント"
"からログインして、``wsrep_cluster_size`` 状態変数を再び確認します。"
msgid ""
"While all of the configuration parameters available to the standard MySQL, "
"MariaDB or Percona XtraDB database server are available in Galera Cluster, "
"there are some that you must define an outset to avoid conflict or "
"unexpected behavior."
msgstr ""
"標準的な MySQL、MariaDB、Percona XtraDB データベースに利用できる設定パラメー"
"ターは Galera Cluster で利用できますが、競合や予期しない動作を避けるために始"
"めに定義する必要があるものがあります。"
msgid ""
"While the application can still run after the failure of several instances, "
"it may not have sufficient capacity to serve the required volume of "
"requests. A cluster can automatically recover failed instances to prevent "
"additional load induced failures."
msgstr ""
"アプリケーションは、いくつかのインスタンスが故障した後も動作できますが、要求"
"されたリクエスト量を処理するための十分な容量がないかもしれません。クラスター"
"は自動的に故障したインスタンスを復旧して、さらなる負荷が障害を引き起こさない"
"ようにできます。"
msgid ""
"While there will be multiple neutron LBaaS agents running, each agent will "
"manage a set of load balancers, that cannot be failed over to another node."
msgstr ""
"複数の neutron LBaaS エージェントが動作していますが、各エージェントは 1 組の"
"ロードバランサーを管理し、他のノードにフェールオーバーできません。"
msgid ""
"With ``secauth`` enabled, Corosync nodes mutually authenticate using a 128-"
"byte shared secret stored in the :file:`/etc/corosync/authkey` file, which "
"may be generated with the :command:`corosync-keygen` utility. When using "
"``secauth``, cluster communications are also encrypted."
msgstr ""
"``secauth`` を有効化すると、Corosync ノードが :file:`/etc/corosync/authkey` "
"に保存された 128 バイトの共有シークレットを使用して相互に認証されます。これ"
"は、 :command:`corosync-keygen` ユーティリティーを使用して生成できます。 "
"``secauth`` を使用している場合、クラスター通信も暗号化されます。"
msgid ""
"With the firewall configuration saved, whenever your OpenStack database "
"starts."
msgstr ""
"ファイアウォール設定を保存すると、OpenStack データベースを起動するときいつで"
"も。"
msgid "With these options set, SELinux now permits Galera Cluster to operate."
msgstr ""
"これらのオプションを設定すると、SELinux により Galera Cluster の動作を許可さ"
"れます。"
msgid ""
"Within the ``nodelist`` directive, it is possible to specify specific "
"information about the nodes in the cluster. The directive can contain only "
"the node sub-directive, which specifies every node that should be a member "
"of the membership, and where non-default options are needed. Every node must "
"have at least the ``ring0_addr`` field filled."
msgstr ""
"``nodelist`` ディレクティブに、クラスター内のノードに関する具体的な情報を指定"
"できます。このディレクティブは、node サブディレクティブのみを含められます。こ"
"れは、メンバーシップのすべてのメンバーを指定し、デフォルト以外に必要となるオ"
"プションを指定します。すべてのノードは、少なくとも ``ring0_addr`` の項目を入"
"力する必要があります。"
msgid ""
"Without the ``backend_url`` option being set only one instance of both the "
"central and compute agent service is able to run and function correctly."
msgstr ""
"``backend_url`` オプションを設定しないと、中央エージェントとコンピュートエー"
"ジェントのインスタンスのどちらかのみが正しく動作して機能できます。"
msgid ""
"You also need to create the OpenStack Identity Endpoint with this IP address."
msgstr ""
"この IP アドレスを用いて OpenStack Identity エンドポイントを作成する必要があ"
"ります。"
msgid ""
"You can achieve high availability for the OpenStack database in many "
"different ways, depending on the type of database that you want to use. "
"There are three implementations of Galera Cluster available to you:"
msgstr ""
"使用したいデータベースの種類に応じて、さまざまな情報で OpenStack のデータベー"
"スの高可用性を実現できます。Galera Cluster は 3 種類の実装があります。"
msgid ""
"You can alternatively use a commercial load balancer, which is a hardware or "
"software. A hardware load balancer generally has good performance."
msgstr ""
"代わりに、ハードウェアやソフトウェアの商用ロードバランサーを使用することもで"
"きます。ハードウェアロードバランサーは、一般的に高性能です。"
msgid ""
"You can have up to 16 cluster members (this is currently limited by the "
"ability of corosync to scale higher). In extreme cases, 32 and even up to 64 "
"nodes could be possible, however, this is not well tested."
msgstr ""
"クラスターのメンバーを 16 まで持てます (これは、corosync をよりスケールさせる"
"機能による、現在の制限です)。極端な場合、32 や 64 までのノードさえ利用できま"
"すが、十分にテストされていません。"
msgid ""
"You can now add the Pacemaker configuration for Block Storage API resource. "
"Connect to the Pacemaker cluster with the :command:`crm configure` command "
"and add the following cluster resources:"
msgstr ""
"Block Storage API リソース用の Pacemaker 設定を追加できます。 :command:`crm "
"configure` を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを"
"追加します。"
msgid ""
"You can now add the Pacemaker configuration for the OpenStack Identity "
"resource by running the :command:`crm configure` command to connect to the "
"Pacemaker cluster. Add the following cluster resources:"
msgstr ""
"ここで OpenStack Identity リソース向けに Pacemaker の設定を追加できます。:"
"command:`crm configure` コマンドを使用して、Pacemaker クラスターに接続しま"
"す。以下のクラスターリソースを追加します。"
msgid ""
"You can now add the Pacemaker configuration for the OpenStack Image API "
"resource. Use the :command:`crm configure` command to connect to the "
"Pacemaker cluster and add the following cluster resources:"
msgstr ""
"ここで OpenStack Image API リソース向けに Pacemaker の設定を追加できます。:"
"command:`crm configure` コマンドを使用して、Pacemaker クラスターに接続して、"
"以下のクラスターリソースを追加します。"
msgid ""
"You can now add the Pacemaker configuration for the Shared File Systems API "
"resource. Connect to the Pacemaker cluster with the :command:`crm configure` "
"command and add the following cluster resources:"
msgstr ""
"Shared File Systems API リソース用の Pacemaker 設定を追加できます。 :command:"
"`crm configure` を用いて Pacemaker クラスターに接続し、以下のクラスターリソー"
"スを追加します。"
msgid ""
"You can now check the ``corosync`` connectivity with one of these tools."
msgstr "corosyncの接続性をそれらのツールの一つで確認することができます。"
msgid ""
"You can read more about these concerns on the `Red Hat Bugzilla <https://"
"bugzilla.redhat.com/show_bug.cgi?id=1193229>`_ and there is a `psuedo "
"roadmap <https://etherpad.openstack.org/p/cinder-kilo-stabilisation-work>`_ "
"for addressing them upstream."
msgstr ""
"これらの課題の詳細は `Red Hat Bugzilla <https://bugzilla.redhat.com/show_bug."
"cgi?id=1193229>`_ にあります。また、アップストリームにおいて解決するための "
"`psuedo roadmap <https://etherpad.openstack.org/p/cinder-kilo-stabilisation-"
"work>`_ があります。"
msgid ""
"You must also create the OpenStack Image API endpoint with this IP address. "
"If you are using both private and public IP addresses, you should create two "
"virtual IP addresses and define your endpoint like this:"
msgstr ""
"この IP アドレスを用いて OpenStack Image API エンドポイントを作成する必要があ"
"ります。プライベート IP アドレスとパブリック IP アドレスを両方使用している場"
"合、2 つの仮想 IP アドレスを作成して、次のようにエンドポイントを定義する必要"
"があります。"
msgid ""
"You must configure NTP to properly synchronize services among nodes. We "
"recommend that you configure the controller node to reference more accurate "
"(lower stratum) servers and other nodes to reference the controller node. "
"For more information, see the `Install Guides <http://docs.openstack.org/"
"#install-guides>`_."
msgstr ""
"サービスをード間で正しく同期するために、NTP を設定する必要があります。コン"
"トローラーノードをできる限り正確な(ストラタム値が小さい)サーバーに参照する"
"ように設定し、他のノードはコントローラーノードを参照するよう設定することを推"
"奨します。詳細は `Install Guides <http://docs.openstack.org/ja/#install-"
"guides>`_ を参照してください。"
msgid ""
"You must configure a supported Tooz driver for the HA deployment of the "
"Telemetry services."
msgstr ""
"Telemetry サービスの高可用性デプロイのために、サポートされる Tooz ドライバー"
"を設定する必要があります。"
msgid "You must create the Block Storage API endpoint with this IP."
msgstr ""
"この IP を用いて Block Storage API エンドポイントを作成する必要があります。"
msgid "You must create the Shared File Systems API endpoint with this IP."
msgstr ""
"この IP を用いて Shared File Systems API エンドポイントを作成する必要がありま"
"す。"
msgid ""
"You must first download the OpenStack Identity resource to Pacemaker by "
"running the following commands:"
msgstr ""
"まず、以下のコマンドを実行して、OpenStack Identity リソースを Pacemaker にダ"
"ウンロードする必要があります。"
msgid "You must first download the resource agent to your system:"
msgstr ""
"まず、お使いのシステムにリソースエージェントをダウンロードする必要がありま"
"す。"
msgid ""
"You must select and assign a virtual IP address (VIP) that can freely float "
"between cluster nodes."
msgstr ""
"クラスターノード間で自由に移動できる仮想 IP アドレス (VIP) を選択して割り当て"
"る必要があります。"
msgid ""
"You must use the same name on every cluster node. The connection fails when "
"this value does not match."
msgstr ""
"すべてのクラスターノードにおいて同じ名前を使用する必要があります。この値が一"
"致しない場合、接続が失敗します。"
msgid ""
"You only need to do this on one cluster node. Galera Cluster replicates the "
"user to all the others."
msgstr ""
"どれか 1 つのクラスターードにおいてのみ実行する必要があります。Galera "
"Cluster が、他のすべてのノードにユーザーを複製します。"
msgid ""
"You should be familiar with `OpenStack Identity service <http://docs."
"openstack.org/admin-guide/common/get_started_identity.html>`_ before "
"proceeding, which is used by many services."
msgstr ""
"進める前に `OpenStack Identity サービス <http://docs.openstack.org/admin-"
"guide/common/get_started_identity.html>`_ に慣れておくべきです。これは多くの"
"サービスにより使用されます。"
msgid ""
"You should see a ``status=joined`` entry for each of your constituent "
"cluster nodes."
msgstr ""
"構成している各クラスターノードが ``status=joined`` になっているはずです。"
msgid ""
"You would choose this option if you prefer to have fewer but more powerful "
"boxes."
msgstr "より少数の高性能なマシンを好む場合、この選択肢を選択するでしょう。"
msgid ""
"You would choose this option if you prefer to have more but less powerful "
"boxes."
msgstr "より多数の低性能なマシンを好む場合、この選択肢を選択するでしょう。"
msgid ""
"Your OpenStack services must now point their Block Storage API configuration "
"to the highly available, virtual cluster IP address rather than a Block "
"Storage API servers physical IP address as you would for a non-HA "
"environment."
msgstr ""
"OpenStack サービスは、非 HA 環境と同じように Block Storage API サーバーの物"
"理 IP アドレスを指定する代わりに、Block Storage API の設定が高可用性と仮想ク"
"ラスター IP アドレスを指し示す必要があります。"
msgid ""
"Your OpenStack services must now point their OpenStack Identity "
"configuration to the highly available virtual cluster IP address rather than "
"point to the physical IP address of an OpenStack Identity server as you "
"would do in a non-HA environment."
msgstr ""
"OpenStack サービスが、非 HA 環境であるような OpenStack Identity サーバーの物"
"理 IP アドレスを指し示す代わりに、高可用性な仮想クラスター IP アドレスを指し"
"示すように、それらの OpenStack Identity の設定を変更する必要があります。"
msgid ""
"Your OpenStack services must now point their OpenStack Image API "
"configuration to the highly available, virtual cluster IP address instead of "
"pointint to the physical IP address of an OpenStack Image API server as you "
"would in a non-HA cluster."
msgstr ""
"OpenStack サービスが、非 HA クラスターであるような OpenStack Image API サー"
"バーの物理 IP アドレスを指し示す代わりに、高可用性な仮想クラスター IP アドレ"
"スを指し示すように、それらの OpenStack Image API の設定を変更する必要がありま"
"す。"
msgid ""
"Your OpenStack services must now point their Shared File Systems API "
"configuration to the highly available, virtual cluster IP address rather "
"than a Shared File Systems API servers physical IP address as you would for "
"a non-HA environment."
msgstr ""
"OpenStack サービスは、通常の非高可用性環境のように、Shared File Systems API "
"サーバーの物理 IP アドレスを指定する代わりに、Shared File Systems API の設定"
"が高可用性と仮想クラスター IP アドレスを指し示す必要があります。"
msgid ""
"[TODO Need description of VIP failover inside Linux namespaces and expected "
"SLA.]"
msgstr ""
"[TODO Need description of VIP failover inside Linux namespaces and expected "
"SLA.]"
msgid ""
"[TODO Need discussion of network hardware, bonding interfaces, intelligent "
"Layer 2 switches, routers and Layer 3 switches.]"
msgstr ""
"[TODO Need discussion of network hardware, bonding interfaces, intelligent "
"Layer 2 switches, routers and Layer 3 switches.]"
msgid ""
"[TODO: Verify that Oslo supports hash synchronization; if so, this should "
"not take more than load balancing.]"
msgstr ""
"[TODO: Verify that Oslo supports hash synchronization; if so, this should "
"not take more than load balancing.]"
msgid ""
"[TODO: Add discussion of remote backup facilities as an alternate way to "
"secure ones data. Include brief mention of key third-party technologies with "
"links to their documentation]"
msgstr ""
"[TODO: Add discussion of remote backup facilities as an alternate way to "
"secure ones data. Include brief mention of key third-party technologies with "
"links to their documentation]"
msgid ""
"[TODO: Does this list need to be updated? Perhaps we need a table that shows "
"each component and the earliest release that allows it to work with HA "
"queues.]"
msgstr ""
"[TODO: Does this list need to be updated? Perhaps we need a table that shows "
"each component and the earliest release that allows it to work with HA "
"queues.]"
msgid "[TODO: Should the example instead use a minimum of three nodes?]"
msgstr "[TODO: Should the example instead use a minimum of three nodes?]"
msgid ""
"[TODO: Should the main example now use corosync-cmapctl and have the note "
"give the command for Corosync version 1?]"
msgstr ""
"[TODO: Should the main example now use corosync-cmapctl and have the note "
"give the command for Corosync version 1?]"
msgid ""
"[TODO: This hands off to two different docs for install information. We "
"should choose one or explain the specific purpose of each.]"
msgstr ""
"[TODO: This hands off to two different docs for install information. We "
"should choose one or explain the specific purpose of each.]"
msgid ""
"[TODO: This section should begin with a brief mention about what HA queues "
"are and why they are valuable, etc]"
msgstr ""
"[TODO: This section should begin with a brief mention about what HA queues "
"are and why they are valuable, etc]"
msgid ""
"[TODO: Update this information. Can this service now be made HA in active/"
"active mode or do we need to pull in the instructions to run this service in "
"active/passive mode?]"
msgstr ""
"[TODO: Update this information. Can this service now be made HA in active/"
"active mode or do we need to pull in the instructions to run this service in "
"active/passive mode?]"
msgid ""
"[TODO: Verify that the active/passive network configuration information from "
"`<http://docs.openstack.org/high-availability-guide/content/s-neutron-server."
"html>`_ should not be included here."
msgstr ""
"[TODO: Verify that the active/passive network configuration information from "
"`<http://docs.openstack.org/high-availability-guide/content/s-neutron-server."
"html>`_ should not be included here."
msgid "[TODO: Verify that these numbers are good]"
msgstr "[TODO: Verify that these numbers are good]"
msgid "[TODO: need more discussion of these parameters]"
msgstr "[TODO: need more discussion of these parameters]"
msgid "[TODO: replace \"currently\" with specific release names]"
msgstr "[TODO: replace \"currently\" with specific release names]"
msgid "[TODO: update this section.]"
msgstr "[TODO: update this section.]"
msgid ""
"[TODO: we need more commentary about the contents and format of this file]"
msgstr ""
"[TODO: we need more commentary about the contents and format of this file]"
msgid "[Verify fingerprint of imported GPG key; see below]"
msgstr "[Verify fingerprint of imported GPG key; see below]"
msgid ""
"`CentOS and RHEL <http://docs.openstack.org/liberty/install-guide-rdo/"
"environment.html>`_"
msgstr ""
"`CentOS および RHEL <http://docs.openstack.org/liberty/install-guide-rdo/"
"environment.html>`_"
msgid ""
"`Ceph RBD <http://ceph.com/>`_ is an innately high availability storage back "
"end. It creates a storage cluster with multiple nodes that communicate with "
"each other to replicate and redistribute data dynamically. A Ceph RBD "
"storage cluster provides a single shared set of storage nodes that can "
"handle all classes of persistent and ephemeral data -- glance, cinder, and "
"nova -- that are required for OpenStack instances."
msgstr ""
"`Ceph RBD <http://ceph.com/>`_ は、本質的に高可用性なストレージバックエンドで"
"す。複数のノードを用いてストレージクラスターを作成し、お互いに通信して動的に"
"レプリケーションとデータ再配布を実行します。Ceph RBD ストレージクラスターは、"
"OpenStack インスタンスに必要となる、すべての種類の永続データと一時データ "
"(glance、cinder、nova) を取り扱える、単一の共有ストレージノードを提供します。"
msgid "`Clustering Guide <https://www.rabbitmq.com/clustering.html>`_"
msgstr "`Clustering Guide <https://www.rabbitmq.com/clustering.html>`_"
msgid "`Debian and Ubuntu <http://www.rabbitmq.com/install-debian.html>`_"
msgstr "`Debian および Ubuntu <http://www.rabbitmq.com/install-debian.html>`_"
msgid ""
"`Galera Cluster for MySQL <http://galeracluster.com/>`_ The MySQL reference "
"implementation from Codership, Oy;"
msgstr ""
"`Galera Cluster for MySQL <http://galeracluster.com/>`_ Codership, Oy による "
"MySQL リファレンス実装"
msgid "`Highly Available Queues <http://www.rabbitmq.com/ha.html>`_"
msgstr "`Highly Available Queues <http://www.rabbitmq.com/ha.html>`_"
msgid ""
"`LP1328922 <https://bugs.launchpad.net/openstack-manuals/+bug/1328922>`_ and "
"`LP1349398 <https://bugs.launchpad.net/openstack-manuals/+bug/1349398>`_ are "
"related.]"
msgstr ""
"`LP1328922 <https://bugs.launchpad.net/openstack-manuals/+bug/1328922>`_ and "
"`LP1349398 <https://bugs.launchpad.net/openstack-manuals/+bug/1349398>`_ are "
"related.]"
msgid ""
"`MariaDB Galera Cluster <https://mariadb.org/>`_ The MariaDB implementation "
"of Galera Cluster, which is commonly supported in environments based on Red "
"Hat distributions;"
msgstr ""
"`MariaDB Galera Cluster <https://mariadb.org/>`_ Galera Cluster の MariaDB 実"
"装、一般的に Red Hat 系ディストリビューションの環境においてサポートされます"
msgid "`Memcached <http://memcached.org/>`__."
msgstr "`Memcached <http://memcached.org/>`__."
msgid ""
"`Pacemaker <http://clusterlabs.org/>`_ cluster stack is the state-of-the-art "
"high availability and load balancing stack for the Linux platform. Pacemaker "
"is useful to make OpenStack infrastructure highly available. Also, it is "
"storage and application-agnostic, and in no way specific to OpenStack."
msgstr ""
"`Pacemaker <http://clusterlabs.org/>`_ クラスタースタックは、Linux プラット"
"フォーム向けの最高水準の高可用性と負荷分散を実現します。Pacemaker は "
"OpenStack インフラを高可用化するために役立ちます。また、ストレージとアプリ"
"ケーションから独立していて、OpenStack 特有の方法はありません。"
msgid ""
"`Percona XtraDB Cluster <http://www.percona.com/>`_ The XtraDB "
"implementation of Galera Cluster from Percona."
msgstr ""
"`Percona XtraDB Cluster <http://www.percona.com/>`_ Percona による Galera "
"Cluster の XtraDB 実装"
msgid ""
"`Provider networks <http://docs.openstack.org/mitaka/install-guide-ubuntu/"
"overview.html#networking-option-1-provider-networks>`_"
msgstr ""
"`プロバイダーネットワーク <http://docs.openstack.org/mitaka/install-guide-"
"ubuntu/overview.html#networking-option-1-provider-networks>`_"
msgid ""
"`RPM based <http://www.rabbitmq.com/install-rpm.html>`_ (RHEL, Fedora, "
"CentOS, openSUSE)"
msgstr ""
"`RPM ベース <http://www.rabbitmq.com/install-rpm.html>`_ (RHEL, Fedora, "
"CentOS, openSUSE)"
msgid "`Redis <http://redis.io/>`__."
msgstr "`Redis <http://redis.io/>`__。"
msgid ""
"`Self-service networks <http://docs.openstack.org/mitaka/install-guide-"
"ubuntu/overview.html#networking-option-2-self-service-networks>`_"
msgstr ""
"`セルフサービスネットワーク <http://docs.openstack.org/mitaka/install-guide-"
"ubuntu/overview.html#networking-option-2-self-service-networks>`_"
msgid ""
"`Telemetry service <http://docs.openstack.org/admin-guide/common/"
"get_started_telemetry.html`>_ provides data collection service and alarming "
"service."
msgstr ""
"`Telemetry サービス <http://docs.openstack.org/admin-guide/common/"
"get_started_telemetry.html`>_ は、データ収集サービスとアラームサービスを提供"
"します。"
msgid ""
"`Ubuntu <http://docs.openstack.org/liberty/install-guide-ubuntu/environment."
"html>`_"
msgstr ""
"`Ubuntu <http://docs.openstack.org/liberty/install-guide-ubuntu/environment."
"html>`_"
msgid "`Zookeeper <http://zookeeper.apache.org/>`__."
msgstr "`Zookeeper <http://zookeeper.apache.org/>`__。"
msgid "``/etc/iptables/iptables.rules``"
msgstr "``/etc/iptables/iptables.rules``"
msgid "``/etc/sysconfig/iptables``"
msgstr "``/etc/sysconfig/iptables``"
msgid "``0xcbcb082a1bb943db``"
msgstr "``0xcbcb082a1bb943db``"
msgid "``1C4CBDCDCD2EFD2A``"
msgstr "``1C4CBDCDCD2EFD2A``"
msgid "``BC19DDBA``"
msgstr "``BC19DDBA``"
msgid ""
"``Corosync`` is started as a regular system service. Depending on your "
"distribution, it may ship with an LSB init script, an upstart job, or a "
"systemd unit file. Either way, the service is usually named ``corosync``:"
msgstr ""
"Corosync は通常のシステムサービスとして起動します。お使いのディストリビュー"
"ションに応じて、LSB init スクリプト、upstart ジョブ、systemd ユニットファイル"
"を同梱している場合があります。どちらにしても、通常、サービスは corosync とい"
"う名前です。"
msgid "``crmsh``"
msgstr "``crmsh``"
msgid "``firewall-cmd``"
msgstr "``firewall-cmd``"
msgid "``iptables``"
msgstr "``iptables``"
msgid ""
"``last_man_standing_window`` specifies the time, in milliseconds, required "
"to recalculate quorum after one or more hosts have been lost from the "
"cluster. To do the new quorum recalculation, the cluster must have quorum "
"for at least the interval specified for ``last_man_standing_window``; the "
"default is 10000ms."
msgstr ""
"``last_man_standing_window`` は、1 つ以上のホストがクラスターから失われた後、"
"クォーラムを再計算するために必要となる時間をミリ秒単位で指定します。新しく"
"クォーラムを再計算するために、クラスターは少なくとも "
"``last_man_standing_window`` に指定された間隔はクォーラムを保持する必要があり"
"ます。デフォルトは 10000ms です。"
msgid ""
"``nodeid`` is optional when using IPv4 and required when using IPv6. This is "
"a 32-bit value specifying the node identifier delivered to the cluster "
"membership service. If this is not specified with IPv4, the node id is "
"determined from the 32-bit IP address of the system to which the system is "
"bound with ring identifier of 0. The node identifier value of zero is "
"reserved and should not be used."
msgstr ""
"``nodeid`` は、IPv4 を使用するときにオプション、IPv6 を使用するときに必須で"
"す。クラスターメンバーシップサービスに配信される、ノード識別子を指定する 32 "
"ビットの値です。IPv4 で指定されていない場合、ノード ID は、システムがリング識"
"別子 0 に割り当てた 32 ビットの IP アドレスになります。ノード識別子の値 0 "
"は、予約済みであり、使用してはいけません。"
msgid "``pcs``"
msgstr "``pcs``"
msgid ""
"``ring{X}_addr`` specifies the IP address of one of the nodes. {X} is the "
"ring number."
msgstr ""
"``ring{X}_addr`` は、1 つのノードの IP アドレスを指定します。{X} はリングの番"
"号です。"
msgid ""
"`openSUSE and SUSE Linux Enterprise Server <http://docs.openstack.org/"
"liberty/install-guide-obs/environment.html>`_"
msgstr ""
"`openSUSE、SUSE Linux Enterprise Server <http://docs.openstack.org/liberty/"
"install-guide-obs/environment.html>`_"
msgid "allow_automatic_l3agent_failover"
msgstr "allow_automatic_l3agent_failover"
msgid "compute node"
msgstr "コンピュートノード"
msgid "controller node"
msgstr "コントローラーノード"
msgid "corosync"
msgstr "corosync"
msgid "fence-agents (CentOS or RHEL) or cluster-glue"
msgstr "fence-agents (CentOS、RHEL) または cluster-glue"
msgid "http://lists.openstack.org/pipermail/openstack-dev/2014-May/035264.html"
msgstr ""
"http://lists.openstack.org/pipermail/openstack-dev/2014-May/035264.html"
msgid "http://www.joinfu.com/"
msgstr "http://www.joinfu.com/"
msgid "l3_ha"
msgstr "l3_ha"
msgid "libqb0"
msgstr "libqb0"
msgid "max_l3_agents_per_router"
msgstr "max_l3_agents_per_router"
msgid "min_l3_agents_per_router"
msgstr "min_l3_agents_per_router"
msgid "openSUSE"
msgstr "openSUSE"
msgid "pacemaker"
msgstr "pacemaker"
msgid "pcs (CentOS or RHEL) or crmsh"
msgstr "pcs (CentOS、RHEL) または crmsh"
msgid "resource-agents"
msgstr "resource-agents"