# Cloudflare

{% code fullWidth="true" %}

```
名前:
   singularity storage update s3 cloudflare - Cloudflare R2 ストレージ

使用法:
   singularity storage update s3 cloudflare [コマンドオプション] <名前|ID>

説明:
   --env-auth
      ランタイムからAWS認証情報を取得します（環境変数またはエンタープライズメタデータ）。

      「access_key_id」と「secret_access_key」が空の場合のみ有効です。

      例：
         | false | 次の手順でAWS認証情報を入力します。
         | true  | 環境変数（またはIAM）からAWS認証情報を取得します。

   --access-key-id
      AWSアクセスキーID。

      匿名アクセスまたはランタイム認証情報の場合は空のままにします。

   --secret-access-key
      AWS Secret Access Key（パスワード）。

      匿名アクセスまたはランタイム認証情報の場合は空のままにします。

   --region
      接続するリージョン。

      例：
         | auto | R2バケットは低レイテンシのためにCloudflareのデータセンター全体に自動的に分散します。

   --endpoint
      S3 APIのエンドポイント。

      S3クローンを使用する場合は必須です。

   --bucket-acl
      バケットを作成する際に使用するCanned ACL。

      詳細については[こちら](https://docs.aws.amazon.com/AmazonS3/latest/dev/acl-overview.html#canned-acl)を参照してください。

      なお、このACLはバケット作成時にのみ適用されます。設定されていない場合は "acl" が使用されます。

      "acl"および"bucket_acl"が空の文字列の場合、"X-Amz-Acl:"ヘッダは追加されず、デフォルト（private）が使用されます。

      例：
         | private            | オーナーにはFULL_CONTROLが付与されます。
         |                    | 他のユーザーはアクセス権限を持たない（デフォルト）。
         | public-read        | オーナーにはFULL_CONTROLが付与されます。
         |                    | AllUsersグループには読み取りアクセス権限が付与されます。
         | public-read-write  | オーナーにはFULL_CONTROLが付与されます。
         |                    | AllUsersグループには読み取りおよび書き込みアクセス権限が付与されます。
         |                    | バケットでこれを許可することは一般的に推奨されていません。
         | authenticated-read | オーナーにはFULL_CONTROLが付与されます。
         |                    | AuthenticatedUsersグループには読み取りアクセス権限が付与されます。

   --upload-cutoff
      チャンクアップロードに切り替えるためのサイズの閾値。

      このサイズより大きなファイルは、chunk_sizeのチャンクでアップロードされます。
      最小値は0、最大値は5 GiBです。

   --chunk-size
      アップロードに使用するチャンクサイズ。

      upload_cutoffを超えるサイズのファイル、またはサイズが不明のファイル（「rclone rcat」や「rclone mount」、Google フォトやGoogle ドキュメントからアップロードされたファイルなど）は、このチャンクサイズを使用してマルチパートアップロードとしてアップロードされます。

      注意として、"--s3-upload-concurrency"のチャンクは、転送ごとにメモリ上にバッファされます。

      高速リンクを介して大きなファイルを転送し、十分なメモリがある場合はこの値を増やすと転送速度が向上します。

      Rcloneは、既知のサイズの大きなファイルをアップロードする場合、10,000チャンクの制限を下回るように、チャンクサイズを自動的に増やします。

      サイズ不明のファイルは設定されたchunk_sizeでアップロードされます。デフォルトのチャンクサイズは5 MiBであり、最大で10,000のチャンクがあるため、ストリームアップロードできるファイルの最大サイズは48 GiBです。より大きなファイルをストリームアップロードする場合は、chunk_sizeを増やす必要があります。

      チャンクサイズを増やすと、進行状況統計の精度が低下します。Rcloneは、AWS SDKによってバッファリングされたチャンクが送信されたときにチャンクが送信されたとみなし、まだアップロード中である可能性があります。大きなチャンクサイズは、AWS SDKのバッファと進行状況報告が真実から逸脱する可能性があります。

   --max-upload-parts
      マルチパートアップロードでの最大パーツ数。

      このオプションは、マルチパートアップロード時に使用するパートの最大数を定義します。

      AWS S3の10,000パーツの仕様をサポートしていないサービスに役立ちます。

      Rcloneは、既知のサイズの大きなファイルをアップロードする場合、このパーツの数の制限を下回るようにチャンクサイズを自動的に増やします。

   --copy-cutoff
      マルチパートコピーに切り替えるためのサイズの閾値。

      この閾値を超えるファイルのサーバーサイドコピーは、このサイズのチャンクでコピーされます。

      最小値は0、最大値は5 GiBです。

   --disable-checksum
      オブジェクトのメタデータにMD5チェックサムを保存しません。

      通常、rcloneはアップロード前に入力のMD5チェックサムを計算し、オブジェクトのメタデータに追加します。これにより、データの整合性チェックが行われますが、大きなファイルのアップロードでは長時間の遅延が発生する可能性があります。

   --shared-credentials-file
      共有認証情報ファイルのパス。

      env_auth = trueの場合、rcloneは共有認証情報ファイルを使用できます。

      この変数が空の場合、rcloneは「AWS_SHARED_CREDENTIALS_FILE」環境変数を参照します。環境変数の値が空の場合は、現在のユーザーのホームディレクトリがデフォルトになります。

          Linux/OSX: "$HOME/.aws/credentials"
          Windows:   "%USERPROFILE%\.aws\credentials"

   --profile
      共有認証情報ファイルで使用するプロファイル。

      env_auth = trueの場合、rcloneは共有認証情報ファイルを使用できます。この変数はそのファイルで使用するプロファイルを制御します。

      空の場合、環境変数 "AWS_PROFILE" または "default"（環境変数が設定されていない場合）がデフォルトになります。

   --session-token
      AWSセッショントークン。

   --upload-concurrency
      マルチパートアップロードの同時実行数。

      同じファイルのチャンクの数です。

      高速リンクで少数の大きなファイルをアップロードし、これらのアップロードが帯域幅を十分に利用しない場合は、この数値を増やすことで転送速度を向上させることができます。

   --force-path-style
      trueの場合はパス形式でアクセスします。falseの場合は仮想ホスト形式を使用します。

      これがtrue（デフォルト）の場合、rcloneはパス形式でアクセスします。falseの場合、rcloneは仮想パス形式を使用します。詳細については、[AWS S3のドキュメント](https://docs.aws.amazon.com/AmazonS3/latest/dev/UsingBucket.html#access-bucket-intro)を参照してください。

      一部のプロバイダ（AWS、Aliyun OSS、Netease COS、またはTencent COSなど）では、これをfalseに設定する必要があります。rcloneは、プロバイダの設定に基づいてこれを自動的に行います。

   --v2-auth
      trueの場合はv2認証を使用します。

      false（デフォルト）の場合、rcloneはv4認証を使用します。設定されている場合、rcloneはv2認証を使用します。

      v4署名が機能しない場合にのみ、この設定を使用します（たとえば、Jewel/v10 CEPHより前のバージョン）。

   --list-chunk
      リストチャンクのサイズ（各ListObjects S3リクエストのレスポンスリスト）。

      このオプションはAWS S3の仕様では"MaxKeys"、"max-items"、"page-size"としても知られています。
      ほとんどのサービスでは、リクエストに対して1000個以上要求しても、応答リストが1000個に切り捨てられます。
      AWS S3では、これはグローバルな最大値であり、変更できません。詳細については[こちら](https://docs.aws.amazon.com/cli/latest/reference/s3/ls.html)を参照してください。
      Cephでは、「rgw list buckets max chunk」オプションでこの値を増やすことができます。

   --list-version
      使用するListObjectsのバージョン：1, 2または0（自動）。

      S3が最初にリリースされたとき、バケット内のオブジェクトを列挙するListObjects呼び出ししか提供されませんでした。

      しかし、2016年5月にListObjectsV2呼び出しが導入されました。これははるかに高速であり、できるだけ使用する必要があります。

      デフォルトの0に設定されている場合、rcloneはプロバイダの設定に基づいてどのリストオブジェクトメソッドを呼び出すかを推測します。正しく推測できない場合は、ここで手動で設定できます。

   --list-url-encode
      リストをURLエンコードするかどうか：true/false/unset

      一部のプロバイダは、リストをURLエンコードしている場合があります。これが利用可能な場合、ファイル名に制御文字を使用するときは、これがより信頼性があります。これがunsetに設定されている場合（デフォルトの場合）、rcloneはプロバイダの設定に応じて適用する内容を選択しますが、ここでrcloneの選択をオーバーライドすることもできます。

   --no-check-bucket
      バケットの存在をチェックせず、作成を試みません。

      バケットが既に存在する場合、rcloneが行うトランザクションの数を最小限にするために便利です。

      また、使用するユーザーにバケット作成権限がない場合にも必要です。v1.52.0以前では、このバグによりサイレントにパスしたことになりました。

   --no-head
      アップロードしたオブジェクトをHEADリクエストで確認しません。

      rcloneは、PUTでオブジェクトをアップロードした後、200 OKのメッセージを受け取った場合、正しくアップロードされたと想定します。

      特に、次の項目を前提とします。

      - メタデータ（modtime、storage class、コンテンツタイプ）がアップロード時と同じであること
      - サイズがアップロード時と同じであること

      単一パートのPUTの応答から次の項目を読み取ります。

      - MD5SUM
      - アップロード日

      マルチパートアップロードの場合、これらの項目は読み取りません。

      サイズ不明のソースオブジェクトがアップロードされた場合、rcloneはHEADリクエストを実行します。

      このフラグを設定すると、正規の運用には推奨されないため、アップロードの障害を見逃す可能性が増します。実際には、このフラグがあっても、アップロードの障害が見逃される可能性は非常に小さいです。

   --no-head-object
      GETの前にHEADを行わないでオブジェクトを取得する場合に設定します。

   --encoding
      バックエンドのエンコーディング。

      詳細については、[概要のエンコーディングセクション](/overview/#encoding)を参照してください。

   --memory-pool-flush-time
      内部メモリバッファプールがフラッシュされる頻度。

      追加バッファ（たとえばマルチパートを必要とするアップロード）は、割り当てにメモリプールを使用します。
      このオプションは、未使用のバッファがプールから削除される頻度を制御します。

   --memory-pool-use-mmap
      内部メモリプールでmmapバッファを使用するかどうか。

   --disable-http2
      S3バックエンドでのhttp2の使用を無効にします。

      現在、s3（特にminio）バックエンドとHTTP/2に関する解決されていない問題があります。s3バックエンドではHTTP/2がデフォルトで有効になっていますが、ここで無効にすることもできます。問題が解決されたときには、このフラグは削除されます。

      参照：https://github.com/rclone/rclone/issues/4673、https://github.com/rclone/rclone/issues/3631

   --download-url
      ダウンロード用のカスタムエンドポイント。
      通常、AWS S3ではCloudFront CDNのURLが設定されます。AWS S3は、CloudFrontネットワークを介してダウンロードされたデータの割安なイーグレスを提供します。

   --use-multipart-etag
      マルチパートアップロードでETagを検証に使用するかどうか。

      これはtrue、false、またはデフォルトのプロバイダの設定（空に設定します）にする必要があります。

   --use-presigned-request
      マルチパート以外のアップロードで、署名済みリクエストまたはPutObjectを使用するかどうか。

      これがfalseの場合、rcloneはAWS SDKのPutObjectを使用してオブジェクトをアップロードします。

      rcloneのバージョン1.59未満では、単一のパートオブジェクトをアップロードするために署名済みリクエストを使用し、このフラグをtrueに設定すると、その機能が再度有効になります。これは特殊な状況やテスト以外では必要ありません。

   --versions
      ディレクトリリスティングに古いバージョンを含めます。

   --version-at
      指定した時間時点のファイルバージョンを表示します。

      パラメータは日付（ "2006-01-02" ）、日時（ "2006-01-02 15:04:05" ）、またはその時間前の期間（ "100d" または "1h" ）である必要があります。

      このオプションでは、ファイルの書き込み操作は許可されません。したがって、ファイルをアップロードしたり削除したりすることはできません。

      有効なフォーマットについては、[timeオプションのドキュメント](/docs/#time-option)を参照してください。

   --decompress
      これが設定されている場合、gzipで圧縮されたオブジェクトを復号化します。

      S3に "Content-Encoding: gzip" を設定してオブジェクトをアップロードすることができます。通常、rcloneはこれらのファイルを圧縮されたオブジェクトとしてダウンロードします。

      このフラグが設定されていると、rcloneはこれらのファイルを受信したときに "Content-Encoding: gzip" で展開します。これにより、rcloneはサイズとハッシュをチェックできませんが、ファイルのコンテンツは解凍されます。

   --might-gzip
      バックエンドでオブジェクトをgzip圧縮する可能性がある場合にこれを設定します。

      通常、プロバイダはダウンロード時にオブジェクトを変更しません。 "Content-Encoding: gzip" が設定されていない場合、ダウンロード時にセットされません。

      ただし、一部のプロバイダは、明示的に "Content-Encoding: gzip" でないとアップロードされていないにもかかわらず、オブジェクトをgzip形式で保管する場合があります（たとえばCloudflare）。

      これによる症状は、次のようなエラーを受け取ることです。

          ERROR corrupted on transfer: sizes differ NNN vs MMM

      このフラグを設定し、rcloneがContent-Encoding: gzipおよびチャンク転送エンコーディングでオブジェクトをダウンロードした場合、rcloneはオブジェクトを逐次解凍します。

      unset（デフォルト）に設定されている場合、rcloneはプロバイダの設定に応じて適用する内容を選択しますが、ここでrcloneの選択をオーバーライドすることもできます。

   --no-system-metadata
      システムメタデータの設定と読み取りを抑制する


オプション:
   --access-key-id value      AWSアクセスキーID。 [$ACCESS_KEY_ID]
   --endpoint value           S3 APIのエンドポイント。 [$ENDPOINT]
   --env-auth                 ランタイムからAWS認証情報を取得します（環境変数またはエンタープライズメタデータ）。（デフォルト：false） [$ENV_AUTH]
   --help, -h                 ヘルプを表示
   --region value             接続するリージョン。 [$REGION]
   --secret-access-key value  AWS Secret Access Key（パスワード）。 [$SECRET_ACCESS_KEY]

   詳細オプション

   --bucket-acl value               バケットを作成する際に使用するCanned ACL。 [$BUCKET_ACL]
   --chunk-size value               アップロードに使用するチャンクサイズ。 (default: "5Mi") [$CHUNK_SIZE]
   --copy-cutoff value              マルチパートコピーに切り替えるためのサイズの閾値。 (default: "4.656Gi") [$COPY_CUTOFF]
   --decompress                     これが設定されている場合、gzipで圧縮されたオブジェクトを復号化します。 (default: false) [$DECOMPRESS]
   --disable-checksum               オブジェクトのメタデータにMD5チェックサムを保存しません。 (default: false) [$DISABLE_CHECKSUM]
   --disable-http2                  S3バックエンドでのhttp2の使用を無効にします。 (default: false) [$DISABLE_HTTP2]
   --download-url value             ダウンロード用のカスタムエンドポイント。 [$DOWNLOAD_URL]
   --encoding value                 バックエンドのエンコーディング。 (default: "Slash,InvalidUtf8,Dot") [$ENCODING]
   --force-path-style               trueの場合はパス形式でアクセスします。falseの場合は仮想ホスト形式を使用します。 (default: true) [$FORCE_PATH_STYLE]
   --list-chunk value               リストチャンクのサイズ。（各ListObjects S3リクエストのレスポンスリスト） (default: 1000) [$LIST_CHUNK]
   --list-url-encode value          リストをURLエンコードするかどうか：true/false/unset (default: "unset") [$LIST_URL_ENCODE]
   --list-version value             使用するListObjectsのバージョン：1、2、または0（自動）。 (default: 0) [$LIST_VERSION]
   --max-upload-parts value         マルチパートアップロードでの最大パーツ数。 (default: 10000) [$MAX_UPLOAD_PARTS]
   --memory-pool-flush-time value   内部メモリバッファプールがフラッシュされる頻度。 (default: "1m0s") [$MEMORY_POOL_FLUSH_TIME]
   --memory-pool-use-mmap           内部メモリプールでmmapバッファを使用するかどうか。 (default: false) [$MEMORY_POOL_USE_MMAP]
   --might-gzip value               バックエンドでオブジェクトをgzip圧縮する可能性がある場合にこれを設定します。 (default: "unset") [$MIGHT_GZIP]
   --no-check-bucket                バケットの存在をチェックせず、作成を試みません。 (default: false) [$NO_CHECK_BUCKET]
   --no-head                        アップロードしたオブジェクトをHEADリクエストで確認しません。 (default: false) [$NO_HEAD]
   --no-head-object                 GETの前にHEADを行わないでオブジェクトを取得する場合に設定します。 (default: false) [$NO_HEAD_OBJECT]
   --no-system-metadata             システムメタデータの設定と読み取りを抑制する (default: false) [$NO_SYSTEM_METADATA]
   --profile value                  共有認証情報ファイルで使用するプロファイル。 [$PROFILE]
   --session-token value            AWSセッショントークン。 [$SESSION_TOKEN]
   --shared-credentials-file value  共有認証情報ファイルのパス。 [$SHARED_CREDENTIALS_FILE]
   --upload-concurrency value       マルチパートアップロードの同時実行数。 (default: 4) [$UPLOAD_CONCURRENCY]
   --upload-cutoff value            チャンクアップロードに切り替えるためのサイズの閾値。 (default: "200Mi") [$UPLOAD_CUTOFF]
   --use-multipart-etag value       マルチパートアップロードでETagを検証に使用するかどうか。 (default: "unset") [$USE_MULTIPART_ETAG]
   --use-presigned-request          マルチパート以外のアップロードで、署名済みリクエストまたはPutObjectを使用するかどうか。 (default: false) [$USE_PRESIGNED_REQUEST]
   --v2-auth                        trueの場合はv2認証を使用します。 (default: false) [$V2_AUTH]
   --version-at value               指定した時間時点のファイルバージョンを表示します。 (default: "off") [$VERSION_AT]
   --decompress                     これが設定されている場合、gzipで圧縮されたオブジェクトを復号化します。 (default: false) [$DECOMPRESS]
   --compression                    trueであれば、圧縮フォーマットの解凍を試みます。 (default: false) [$COMPRESSION]
   --might-compress                 からコピーされたオブジェクトが圧縮形式で保存されている可能性がある場合にこれを設定します。 (default: "unset") [$MIGHT_COMPRESS]
   --no-fast-list                   バケット内のオブジェクトの数を高速に算出せず、内部イテレータを使用する。 [$NO_FAST_LIST]
   --no-list-values                 オブジェクトの値をリスト時に読み込まない。 [$NO_LIST_VALUES]
   --no-noop                        --dry-runに対して "Noop" モードを無効にします。 (default: false) [$NO_NOOP]
   --no-partial-upload              アップロードが失敗したときに、中途で切り捨てたオブジェクトを残さずに削除します。 (default: false) [$NO_PARTIAL_UPLOAD]
   --no-write-headers               ヘッダを書き込まないです。 (default: false) [$NO_WRITE_HEADERS]
   --progress-interval value        プログレスバーの更新間隔。 (default: 500ms) [$PROGRESS_INTERVAL]
```

{% endcode %}


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://data-programs.gitbook.io/singularity/jp/cli-reference/storage/update/s3/cloudflare.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
