# Ceph

{% code fullWidth="true" %}

```
名称:
   singularity storage update s3 ceph - Ceph对象存储

用法:
   singularity storage update s3 ceph [命令选项] <名称|ID>

描述:
   --env-auth
      从运行时获取AWS凭证（环境变量或EC2/ECS元数据，如果没有环境变量）。
      
      仅当access_key_id和secret_access_key为空时有效。

      示例:
         | false | 在下一步中输入AWS凭证。
         | true  | 从环境（环境变量或IAM）获取AWS凭证。

   --access-key-id
      AWS访问密钥ID。
      
      如果要进行匿名访问或使用运行时凭证，请留空。

   --secret-access-key
      AWS Secret Access Key（密码）。
      
      如果要进行匿名访问或使用运行时凭证，请留空。

   --region
      要连接的区域。
      
      如果您使用的是S3克隆，并且没有区域，请留空。

      示例:
         | <unset>            | 如果不确定，请使用此选项。
         |                    | 将使用v4签名和空区域。
         | other-v2-signature | 仅在v4签名无法正常工作时使用。
         |                    | 例如，早期的Jewel/v10 CEPH。

   --endpoint
      S3 API的端点。
      
      使用S3克隆时需要。

   --location-constraint
      位置约束 - 必须设置与区域匹配。
      
      如果不确定，请留空。仅在创建存储桶时使用。

   --acl
      创建存储桶、存储或复制对象时使用的默认ACL。
      
      此ACL用于创建对象，并且如果未设置bucket_acl也用于创建存储桶。
      
      有关更多信息，请访问https://docs.aws.amazon.com/AmazonS3/latest/dev/acl-overview.html#canned-acl
      
      请注意，在服务器端复制对象时，S3不会复制源对象的ACL，而是写入一个新的ACL。
      
      如果acl是空字符串，则不会添加X-Amz-Acl:头，将使用默认（私有）。

   --bucket-acl
      创建存储桶时使用的默认ACL。
      
      有关更多信息，请访问https://docs.aws.amazon.com/AmazonS3/latest/dev/acl-overview.html#canned-acl
      
      请注意，仅在创建存储桶时应用此ACL。如果未设置，则改为使用“acl”。
      
      如果“acl”和“bucket_acl”都是空字符串，则不会添加X-Amz-Acl:
      头，默认情况下使用默认（私有）。

      示例:
         | private            | 所有者有完全控制权。
         |                    | 没有其他人有访问权限（默认）。
         | public-read        | 所有者有完全控制权。
         |                    | AllUsers组具有读取访问权限。
         | public-read-write  | 所有者有完全控制权。
         |                    | AllUsers组具有读取和写入访问权限。
         |                    | 通常不建议在存储桶上授予此权限。
         | authenticated-read | 所有者有完全控制权。
         |                    | AuthenticatedUsers组具有读取访问权限。

   --server-side-encryption
      存储对象在S3中使用的服务器端加密算法。

      示例:
         | <unset> | 无
         | AES256  | AES256

   --sse-customer-algorithm
      如果使用SSE-C，在存储对象时使用的服务器端加密算法。

      示例:
         | <unset> | 无
         | AES256  | AES256

   --sse-kms-key-id
      如果使用KMS ID，则必须提供Key的ARN。

      示例:
         | <unset>                 | 无
         | arn:aws:kms:us-east-1:* | arn:aws:kms:*

   --sse-customer-key
      若要使用SSE-C，您可以提供用于加密/解密数据的秘密加密密钥。
      
      或者，您可以提供--sse-customer-key-base64。

      示例:
         | <unset> | 无

   --sse-customer-key-base64
      如果使用SSE-C，则必须提供以base64格式编码的秘密加密密钥，用于加密/解密数据。
      
      或者，您可以提供--sse-customer-key。

      示例:
         | <unset> | 无

   --sse-customer-key-md5
      如果使用SSE-C，可以提供秘密加密密钥的MD5校验和（可选）。
      
      如果将其留空，则此校验和将从提供的sse_customer_key自动计算。

      示例:
         | <unset> | 无

   --upload-cutoff
      切换到分块上传的截止点。
      
      大于此大小的任何文件将以chunk_size的块上传。
      最小值为0，最大值为5 GiB。

   --chunk-size
      用于上传的块大小。
      
      当上传大于upload_cutoff的文件或大小未知的文件时（例如使用“rclone rcat”或使用“rclone mount”或Google
      相册或Google文档上传的文件），将使用此块大小进行分块上传。
      
      请注意，每次传输都会缓冲“--s3-upload-concurrency”个此大小的块。
      
      如果您正在使用高速链接传输大文件，并且内存足够，增加此值将加快传输速度。
      
      Rclone在上传已知大小的大文件时，会自动增加块大小，以保持在10,000个块的限制之下。
      
      未知大小的文件使用配置的
      chunk_size 进行上传。由于默认的块大小为5 MiB，并且最多可以有10,000个块，
      这意味着默认情况下可以流式上传的文件的最大大小为48 GiB。
      如果要流式上传更大的文件，则需要增加 chunk_size。
      
      增加块大小会降低使用“-P”标志显示的进度统计的准确性。当
      由于设置在AWS SDK中缓冲了块而未发送时，Rclone将块视为已发送，
      实际上可以仍在上传。较大的块大小意味着较大的AWS SDK缓冲区和进度
      报告与实际情况更有偏差。
      

   --max-upload-parts
      多部分上传中的最大部分数。
      
      此选项定义进行多部分上传时要使用的最大多部分块数。
      
      如果有服务不支持10,000个块的AWS S3规范，则可能很有用。
      
      当上传已知大小的大文件时，Rclone会自动增加块大小，以保持在该块数限制之下。
      

   --copy-cutoff
      切换到分块拷贝的截止点。
      
      需要进行服务器端拷贝的大于此大小的任何文件将被分块拷贝。
      
      最小值为0，最大值为5 GiB。

   --disable-checksum
      不将MD5校验和与对象元数据一起存储。
      
      通常在上传之前，rclone会计算输入文件的MD5校验和，以便将其添加到对象的元数据中。这对于数据完整性检查非常有用，但对于大文件来说会导致长时间的延迟，以便开始上传。

   --shared-credentials-file
      共享凭证文件的路径。
      
      如果 env_auth = true，则rclone可以使用共享凭证文件。
      
      如果此变量为空，则rclone将查找
      "AWS_SHARED_CREDENTIALS_FILE"环境变量。如果环境值为空
      它将默认为当前用户的主目录。
      
          Linux/OSX: "$HOME/.aws/credentials"
          Windows:   "%USERPROFILE%\\.aws\\credentials"
      

   --profile
      共享凭证文件中要使用的配置文件。
      
      如果 env_auth = true，则rclone可以使用共享凭证文件。此变量控制在该文件中使用的配置文件。
      
      如果为空，则将默认为环境变量"AWS_PROFILE"或
      如果该环境变量也未设置，则默认为"default"。
      

   --session-token
      AWS会话令牌。

   --upload-concurrency
      分块上传的并发数。
      
      同一文件的这些块的数量将同时上传。
      
      如果您通过高速链接上传少量大文件，并且这些上传未充分利用带宽，则增加此值可能会帮助加快传输速度。

   --force-path-style
      如果为true，则使用路径样式访问；如果为false，则使用虚拟主机样式访问。
      
      如果为true（默认值），则rclone将使用路径样式访问，
      如果为false，则rclone将使用虚拟路径样式访问。有关更多信息，请参见 [AWS S3文档](https://docs.aws.amazon.com/AmazonS3/latest/dev/UsingBucket.html#access-bucket-intro)
      。
      
      一些提供商（例如AWS、Aliyun OSS、Netease COS或Tencent COS）要求将此设置为
      false - rclone将根据提供商设置自动完成此操作。

   --v2-auth
      如果为true，则使用v2认证。
      
      如果为false（默认值），则rclone将使用v4认证。如果设置了它，则rclone将使用v2认证。
      
      仅在v4签名无法正常工作时使用，例如，早期的Jewel/v10 CEPH。

   --list-chunk
      要列出的大小（每个ListObject S3请求的响应列表大小）。
      
      此选项也称为AWS S3规范中的“MaxKeys”、“max-items”或“page-size”。
      大多数服务即使请求超过1000个对象，也会将响应列表截断为1000个。
      在AWS S3中，这是一个全局最大值，不能更改，请参阅[AWS S3](https://docs.aws.amazon.com/cli/latest/reference/s3/ls.html)。
      在Ceph中，可以使用“rgw list buckets max chunk”选项增加这个值。
      

   --list-version
      要使用的ListObjects的版本：1、2或0表示自动选择。
      
      当S3最初推出时，它只提供了ListObjects调用来枚举存储桶中的对象。
      
      然而，在2016年5月，引入了ListObjectsV2调用。这是
      更高的性能，应尽可能使用。
      
      如果设置为默认值0，则rclone将根据设置的提供商猜测要调用哪个列表对象方法。如果猜测错误，则可以在此处手动设置。
      

   --list-url-encode
      是否对列表进行URL编码：true/false/unset
      
      一些提供商支持URL编码列表，如果可用，使用控制字符的文件名会更可靠。如果设置为unset（默认值），则rclone将根据提供商设置选择要应用的内容，但您可以在此处覆盖rclone的选择。
      

   --no-check-bucket
      如果设置，则不尝试检查存储桶是否存在或创建它。
      
      如果要尽量减少rclone的交易次数，或者知道存储桶已经存在，则这可能很有用。
      
      如果使用的用户没有创建存储桶的权限，则可能也需要使用此标志。在v1.52.0之前，由于错误，这个操作会忽略。
      

   --no-head
      如果设置，则不对上传的对象进行HEAD请求以检查完整性。
      
      如果尽量减少rclone的交易次数，这可能很有用。
      
      设置它意味着如果rclone在PUT上传对象后收到200 OK消息，则会假设它已正确上传。
      
      特别是，它会假设：
      
      - 元数据，包括修改时间、存储类和内容类型与上传的文件相同
      - 大小与上传的文件相同
      
      它从单个部分PUT的响应中读取以下项目：
      
      - MD5SUM
      - 上传日期
      
      对于多部分上传，不会读取这些项目。
      
      如果上传源对象的长度未知，则rclone将执行HEAD请求。
      
      设置此标志会增加未检测到的上传失败的机会，
      特别是大小不正确，因此不推荐在正常操作中使用。实际上，即使使用此标志，未检测到的上传失败的机会非常小。
      

   --no-head-object
      如果设置，则在获取对象之前不执行HEAD请求。

   --encoding
      后端的编码。
      
      有关更多信息，请参见概述中的[编码部分](/overview/#encoding)。

   --memory-pool-flush-time
      内部内存缓冲区池刷新的频率。
      
      需要附加缓冲区（例如分部分地）的上传将使用内存池进行分配。
      此选项控制多久将从池中删除未使用的缓冲区。

   --memory-pool-use-mmap
      是否在内部内存池中使用mmap缓冲区。

   --disable-http2
      禁用S3后端使用http2。
      
      目前，s3（特别是minio）后端存在一个未解决的HTTP/2问题。
      S3后端默认启用HTTP/2，但可以在此处禁用。问题解决后，此标志将被删除。
      
      参见：https://github.com/rclone/rclone/issues/4673, https://github.com/rclone/rclone/issues/3631

   --download-url
      下载的自定义端点。
      这通常设置为CloudFront CDN URL，因为AWS S3通过CloudFront网络下载的数据提供更便宜的出口。

   --use-multipart-etag
      是否在多部分上传中使用ETag进行验证
      
      这应该设置为true、false或留空以使用提供商的默认设置。
      

   --use-presigned-request
      是否使用预签名请求或PutObject进行单个部分上传
      
      如果为false，则rclone将使用来自AWS SDK的PutObject来上传对象。
      
      rclone < 1.59 的版本使用预签名请求来上传单个部分的对象，将此标志设置为true将重新启用该 functionality。
      这在例外情况下或进行测试时才是必需的，普通情况下不应该使用。
      

   --versions
      在目录列表中包含旧版本。

   --version-at
      显示指定时间的文件版本。
      
      参数应该是一个日期，"2006-01-02"，时间日期 "2006-01-02
      15:04:05"，或者表示多久以前的持续时间，例如 "100d" 或 "1h"。
      
      请注意，使用此功能时，不允许进行文件写入操作，
      因此无法上传文件或删除文件。
      
      有关有效格式，请参见[时间选项文档](/docs/#time-option)。

   --decompress
      如果设置，将解压缩gzip编码的对象。
      
      可以使用"Content-Encoding: gzip"设置将对象上传到S3。通常，rclone将以压缩的对象形式下载这些文件。
      
      如果设置了此标志，则rclone将在接收到带有"Content-Encoding: gzip"的文件时进行解压缩。这意味着rclone无法检查文件的大小和哈希值，但文件内容将被解压缩。
      

   --might-gzip
      如果后端可能对对象进行gzip压缩，请设置此标志。
      
      通常情况下，提供程序在下载对象时不会修改对象。如果
      对象没有使用`Content-Encoding: gzip`上传，那么在下载时它也不会被设置。
      
      但是，一些提供程序可能会对对象进行gzip压缩，即使它们没有使用`Content-Encoding: gzip`上传（例如Cloudflare）。
      
      这种情况的一种症状是接收到以下错误信息：
      
          ERROR corrupted on transfer: sizes differ NNN vs MMM
      
      如果设置了此标志，并且rclone使用
      Content-Encoding: gzip 设置和分块传输编码下载对象，则rclone将动态解压缩该对象。
      
      如果将此设置为unset（默认值），则rclone将根据提供商设置选择要应用的内容，但是您可以在此处覆盖rclone的选择。
      

   --no-system-metadata
      禁止设置和读取系统元数据


选项:
   --access-key-id 值           AWS访问密钥ID。[$ACCESS_KEY_ID]
   --acl 值                     创建存储桶和存储或复制对象时使用的默认ACL。[$ACL]
   --endpoint 值                S3 API的端点。[$ENDPOINT]
   --env-auth                   从运行时获取AWS凭证（环境变量或EC2/ECS元数据，如果没有环境变量）。 (默认值: false) [$ENV_AUTH]
   --help, -h                   显示帮助
   --location-constraint 值     位置约束 - 必须设置与区域匹配。[$LOCATION_CONSTRAINT]
   --region 值                  要连接的区域。[$REGION]
   --secret-access-key 值       AWS Secret Access Key（密码）。[$SECRET_ACCESS_KEY]
   --server-side-encryption 值  存储对象在S3中使用的服务器端加密算法。[$SERVER_SIDE_ENCRYPTION]
   --sse-kms-key-id 值          如果使用KMS ID，则必须提供Key的ARN。[$SSE_KMS_KEY_ID]

   高级选项

   --bucket-acl 值               创建存储桶时使用的默认ACL。[$BUCKET_ACL]
   --chunk-size 值               用于上传的块大小。 (默认值: "5Mi") [$CHUNK_SIZE]
   --copy-cutoff 值              切换到分块拷贝的截止点。 (默认值: "4.656Gi") [$COPY_CUTOFF]
   --decompress                  如果设置，将解压缩gzip编码的对象。 (默认值: false) [$DECOMPRESS]
   --disable-checksum            不将MD5校验和与对象元数据一起存储。 (默认值: false) [$DISABLE_CHECKSUM]
   --disable-http2               禁用S3后端使用http2。 (默认值: false) [$DISABLE_HTTP2]
   --download-url 值             下载的自定义端点。[$DOWNLOAD_URL]
   --encoding 值                 后端的编码。 (默认值: "Slash,InvalidUtf8,Dot") [$ENCODING]
   --force-path-style            如果为true，则使用路径样式访问；如果为false，则使用虚拟主机样式访问。 (默认值: true) [$FORCE_PATH_STYLE]
   --list-chunk 值               要列出的大小（每个ListObject S3请求的响应列表大小）。 (默认值: 1000) [$LIST_CHUNK]
   --list-url-encode 值          是否对列表进行URL编码：true/false/unset (默认值: "unset") [$LIST_URL_ENCODE]
   --list-version 值             要使用的ListObjects的版本：1、2或0表示自动选择。 (默认值: 0) [$LIST_VERSION]
   --max-upload-parts 值         多部分上传中的最大部分数。 (默认值: 10000) [$MAX_UPLOAD_PARTS]
   --memory-pool-flush-time 值   内部内存缓冲区池刷新的频率。 (默认值: "1m0s") [$MEMORY_POOL_FLUSH_TIME]
   --memory-pool-use-mmap        是否在内部内存池中使用mmap缓冲区。 (默认值: false) [$MEMORY_POOL_USE_MMAP]
   --might-gzip 值               如果后端可能对对象进行gzip压缩，请设置此标志。 (默认值: "unset") [$MIGHT_GZIP]
   --no-check-bucket             如果设置，则不尝试检查存储桶是否存在或创建它。 (默认值: false) [$NO_CHECK_BUCKET]
   --no-head                     如果设置，则不对上传的对象进行HEAD请求以检查完整性。 (默认值: false) [$NO_HEAD]
   --no-head-object              如果设置，则在获取对象之前不执行HEAD请求。 (默认值: false) [$NO_HEAD_OBJECT]
   --no-system-metadata          禁止设置和读取系统元数据 (默认值: false) [$NO_SYSTEM_METADATA]
   --profile 值                  共享凭证文件中要使用的配置文件。 [$PROFILE]
   --session-token 值            AWS会话令牌。 [$SESSION_TOKEN]
   --shared-credentials-file 值  共享凭证文件的路径。 [$SHARED_CREDENTIALS_FILE]
   --sse-customer-algorithm 值   如果使用SSE-C，在存储对象时使用的服务器端加密算法。 [$SSE_CUSTOMER_ALGORITHM]
   --sse-customer-key value      若要使用SSE-C，您可以提供用于加密/解密数据的秘密加密密钥。 [$SSE_CUSTOMER_KEY]
   --sse-customer-key-base64 value  如果使用SSE-C，则必须提供以base64格式编码的秘密加密密钥，用于加密/解密数据。 [$SSE_CUSTOMER_KEY_BASE64]
   --sse-customer-key-md5 值     如果使用SSE-C，可以提供秘密加密密钥的MD5校验和（可选）。 [$SSE_CUSTOMER_KEY_MD5]
   --upload-concurrency 值       分块上传的并发数。 (默认值: 4) [$UPLOAD_CONCURRENCY]
   --upload-cutoff 值            切换到分块上传的截止点。 (默认值: "200Mi") [$UPLOAD_CUTOFF]
   --use-multipart-etag 值       是否在多部分上传中使用ETag进行验证 (默认值: "unset") [$USE_MULTIPART_ETAG]
   --use-presigned-request       是否使用预签名请求或PutObject进行单个部分上传 (默认值: false) [$USE_PRESIGNED_REQUEST]
   --v2-auth                     如果为true，则使用v2认证。 (默认值: false) [$V2_AUTH]
   --version-at 值               显示指定时间的文件版本。 (默认值: "off") [$VERSION_AT]
   --versions                    在目录列表中包含旧版本。 (默认值: false) [$VERSIONS]

```

{% endcode %}


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://data-programs.gitbook.io/singularity/zh/cli-reference/storage/update/s3/ceph.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
