Ceph

命令:
   singularity storage create s3 ceph - Ceph 对象存储

使用方法:
   singularity storage create s3 ceph [command options] [arguments...]

描述:
   --env-auth
      使用运行时获取 AWS 凭证(环境变量或环境模拟)。
      
      仅当 access_key_id 和 secret_access_key 为空时才适用。

      示例:
         | false | 下一步输入 AWS 凭证。
         | true  | 从环境获取 AWS 凭证(环境变量或 IAM)。

   --access-key-id
      AWS 访问密钥 ID。
      
      需要匿名访问或运行时凭证时可以留空。

   --secret-access-key
      AWS 密钥访问密码。
      
      需要匿名访问或运行时凭证时可以留空。

   --region
      要连接的区域。
      
      使用 S3 克隆且没有区域时可以留空。

      示例:
         | <unset>            | 如果不确定,请使用此选项。
         |                    | 将使用 v4 签名和空白区域。
         | other-v2-signature | 仅在 v4 签名不可用时使用此选项。
         |                    | 例如,早期的 Jewel/v10 CEPH。

   --endpoint
      S3 API 的终端节点。
      
      使用 S3 克隆时必填。

   --location-constraint
      位置约束 - 必须与区域匹配。
      
      不确定时可以留空。仅在创建存储桶时使用。

   --acl
      在创建存储桶、存储或复制对象时使用的 canned ACL。
      
      此 ACL 用于创建对象,并且当未设置 bucket_acl 时,也用于创建存储桶。
      
      有关详细信息,请访问 [AWS S3 文档](https://docs.aws.amazon.com/AmazonS3/latest/dev/acl-overview.html#canned-acl)。
      
      请注意,当 S3 服务器复制对象时,它不会复制源中的 ACL,而是输入一个新的 ACL。
      
      如果 acl 是一个空字符串,则不会添加 X-Amz-Acl 头,将使用默认值(private)。

   --bucket-acl
      在创建存储桶时使用的 canned ACL。
      
      有关详细信息,请访问 [AWS S3 文档](https://docs.aws.amazon.com/AmazonS3/latest/dev/acl-overview.html#canned-acl)。
      
      请注意,仅在创建存储桶时应用此 ACL。如果未设置它,则还将使用 "acl"。
      
      如果 "acl" 和 "bucket_acl" 都是空字符串,则不会添加 X-Amz-Acl
      头,并且将使用默认值(private)。

      示例:
         | private            | 拥有者具有 FULL_CONTROL 权限。
         |                    | 其他用户没有访问权限(默认)。
         | public-read        | 拥有者具有 FULL_CONTROL 权限。
         |                    | AllUsers 组具有读权限。
         | public-read-write  | 拥有者具有 FULL_CONTROL 权限。
         |                    | AllUsers 组具有读和写权限。
         |                    | 不建议在存储桶上授予此权限。
         | authenticated-read | 拥有者具有 FULL_CONTROL 权限。
         |                    | AuthenticatedUsers 组具有读权限。

   --server-side-encryption
      存储对象时使用的服务器端加密算法。

      示例:
         | <unset> | None
         | AES256  | AES256

   --sse-customer-algorithm
      如果使用 SSE-C,则存储对象时使用的服务器端加密算法。

      示例:
         | <unset> | None
         | AES256  | AES256

   --sse-kms-key-id
      如果使用 KMS ID,则必须提供密钥的 ARN。

      示例:
         | <unset>                 | None
         | arn:aws:kms:us-east-1:* | arn:aws:kms:*

   --sse-customer-key
      如果使用 SSE-C,则可以提供用于加密/解密数据的加密密钥。
      
      也可以提供 --sse-customer-key-base64。

      示例:
         | <unset> | None

   --sse-customer-key-base64
      如果使用 SSE-C,则必须提供以 base64 格式编码的加密密钥以加密/解密数据。
      
      也可以提供 --sse-customer-key。

      示例:
         | <unset> | None

   --sse-customer-key-md5
      如果使用 SSE-C,则可以提供加密密钥的 MD5 校验和(可选)。
      
      如果为空,则会自动从提供的 sse_customer_key 计算。

      示例:
         | <unset> | None

   --upload-cutoff
      切换到分块上传的大小阈值。
      
      大于此大小的文件将以块大小为 chunk_size 进行上传。
      最小值为 0,最大值为 5 GiB。

   --chunk-size
      用于上传的块大小。
      
      在上传大于 upload_cutoff 的文件或大小未知的文件(例如使用 "rclone rcat" 上传或使用 "rclone mount" 或 google photos 或 google docs 上传)时,将使用这个块大小进行分块上传。
      
      请注意,"--s3-upload-concurrency" 每个传输在内存中缓冲这个大小的块。
      
      如果您在高速链接上传输大文件并且有足够的内存,增加此值将加快传输速度。
      
      Rclone 将根据文件大小增加块大小,以保持不超过 10,000 个块的限制。
      
      未知大小的文件使用配置的 chunk_size 进行上传。由于默认的 chunk_size 是 5 MiB,并且最多有 10,000 个块,这意味着默认情况下您可以流式上传的文件的最大大小为 48 GiB。如果您希望流式上传更大的文件,则需要增加 chunk_size。
      
      增加块大小会降低使用 "-P" 标志显示的进度统计信息的精确性。当 Rclone 缓冲 AWS SDK 时,会将块视为已发送,而实际上它可能仍在上传。更大的块大小意味着更大的 AWS SDK 缓冲区,并且与实际情况可能有所偏离的进度报告。

   --max-upload-parts
      多部分上传中的最大部分数。
      
      此选项定义在执行多部分上传时要使用的最大多部分块数。
      
      如果某个服务不支持 AWS S3 规范中的 10,000 个多部分块,则这可能很有用。
      
      在上传已知大小的大文件时,Rclone 将自动增加块大小以保持在块数限制内。

   --copy-cutoff
      切换到分块复制的大小阈值。
      
      大于此大小的需进行服务器端复制的文件将以此大小的块进行复制。
      
      最小值为 0,最大值为 5 GiB。

   --disable-checksum
      在对象元数据中不存储 MD5 校验和。
      
      通常情况下,rclone 在上传文件之前会计算输入数据的 MD5 校验和,以便将其添加到对象元数据中。这在进行数据完整性检查时非常有用,但可能导致大型文件开始上传的时间较长。

   --shared-credentials-file
      共享凭证文件的路径。
      
      如果 env_auth = true,则 rclone 可以使用共享凭证文件。
      
      如果此变量为空,则 rclone 将查找 "AWS_SHARED_CREDENTIALS_FILE" 环境变量。如果环境变量的值为空,则默认为当前用户的主目录。
      
          Linux/OSX: "$HOME/.aws/credentials"
          Windows:   "%USERPROFILE%\.aws\credentials"

   --profile
      共享凭证文件中要使用的配置文件。
      
      如果 env_auth = true,则 rclone 可以使用共享凭证文件。此变量控制在该文件中要使用的配置文件。
      
      如果为空,则默认为环境变量 "AWS_PROFILE" 或 "default" 的值。

   --session-token
      AWS 会话令牌。

   --upload-concurrency
      多部分上传的并发数。
      
      这是同时上传的同一文件块数。
      
      如果您正在使用高速链接上传少量大文件,并且这些上传没有完全利用带宽,则增加此值可能有助于加快传输速度。

   --force-path-style
      如果为 true,则使用路径样式访问;如果为 false,则使用虚拟主机样式访问。
      
      如果为 true(默认值),则 rclone 将使用路径样式访问;如果为 false,则 rclone 将使用虚拟路径样式。有关详细信息,请参阅 [AWS S3 文档](https://docs.aws.amazon.com/AmazonS3/latest/dev/UsingBucket.html#access-bucket-intro)。
      
      某些提供者(例如 AWS、Aliyun OSS、Netease COS 或 Tencent COS)要求将此设置为 false - rclone 将根据提供者设置自动执行此操作。

   --v2-auth
      如果为 true,则使用 v2 认证。
      
      如果为 false(默认值),则 rclone 将使用 v4 认证。如果设置了它,则 rclone 将使用 v2 认证。
      
      仅在 v4 签名不可用时使用。

   --list-chunk
      列表块的大小(每个 ListObject S3 请求的响应列表大小)。
      
      此选项也称为 AWS S3 规范中的 "MaxKeys"、"max-items" 或 "page-size"。
      大多数服务即使请求更多对象,也会截断响应列表为 1000 个对象。
      在 AWS S3 中,这是全局最大值且不可更改,请参阅 [AWS S3 文档](https://docs.aws.amazon.com/cli/latest/reference/s3/ls.html)。
      在 Ceph 中,可以使用 "rgw list buckets max chunk" 选项进行增加。

   --list-version
      要使用的 ListObjects 的版本:1、2 或 0 以自动选择。
      
      S3 最初只提供了用于枚举存储桶中对象的 ListObjects 调用。
      
      但是,2016 年 5 月,引入了 ListObjectsV2 调用。这是一种性能更高的调用,如果可能的话应该使用它。
      
      如果设置为默认值 0,则 rclone 将根据设置的提供者猜测要调用的 list objects 方法。如果它猜测错误,则可以在这里手动设置。

   --list-url-encode
      是否对列表进行 URL 编码:true/false/unset
      
      某些提供者支持对列表进行 URL 编码,如果可用,则在文件名中使用控制字符时这是更可靠的。如果设置为 unset(默认值),则 rclone 将根据提供者设置来选择应用什么。

   --no-check-bucket
      如果设置,则不尝试检查存储桶是否存在或创建存储桶。
      
      如果您知道存储桶已经存在,则这可能很有用,以减少 rclone 的事务数。
      
      如果您使用的用户没有桶创建权限,则可能需要进行此操作。在 v1.52.0 之前,因为存在一个错误,这将悄无声息地通过。
      

   --no-head
      如果设置,则不 HEAD 已上传的对象以检查完整性。
      
      如果尝试最小化 rclone 的事务数量,则这可能很有用。
      
      设置此标志意味着如果 rclone 在使用 PUT 上传对象后收到 200 OK 消息,则将假设该对象已正确上传。
      
      具体而言,它假设:
      
      - 元数据,包括修改时间、存储类和内容类型与上传的内容相同。
      - 大小与上传的内容相同。
      
      对于单部分 PUT,它会从响应中读取以下项:
      
      - MD5SUM
      - 上传日期
      
      对于多部分上传,不会读取这些项目。
      
      如果上传的源对象长度未知,则 rclone **将**执行 HEAD 请求。
      
      设置此标志会增加检测不到的上传失败的几率,特别是大小不正确的几率,因此不建议在正常操作中使用。实际上,即使使用此标志,检测不到的上传失败的几率也很小。
      

   --no-head-object
      如果设置,则在获取对象之前不执行 HEAD。

   --encoding
      后端的编码方式。
      
      有关更多信息,请参阅[概述中的编码部分](/overview/#encoding)。

   --memory-pool-flush-time
      内部内存缓冲池刷新的频率。
      
      需要额外缓冲区的上传(例如分块)将使用内存池进行分配。
      此选项控制多久会从池中删除未使用的缓冲区。

   --memory-pool-use-mmap
      是否在内部内存池中使用 mmap 缓冲区。

   --disable-http2
      禁用 S3 后端的 http2 使用。
      
      目前 s3(具体来说是 minio)后端存在一个无法解决的问题,与 HTTP/2 相关。HTTP/2 默认启用 s3 后端,但可以在此禁用。解决该问题后,此标志将被删除。
      
      参见: https://github.com/rclone/rclone/issues/4673, https://github.com/rclone/rclone/issues/3631

   --download-url
      自定义下载的终端节点。
      通常将其设置为 CloudFront CDN URL,因为 AWS S3 通过 CloudFront 网络下载的数据提供更便宜的出口流量。

   --use-multipart-etag
      是否在多部分上传中使用 ETag 进行验证
      
      它应该是 true、false 或留空以使用提供者的默认值。

   --use-presigned-request
      是否使用预签名请求或 PutObject 进行单部分上传
      
      如果此选项为 false,则 rclone 将使用 AWS SDK 中的 PutObject 上传对象。
      
      版本低于 1.59 的 rclone 使用预签名请求上传单部分对象,将此标志设置为 true 将重新启用该功能。除非异常情况或测试,否则不应该需要这样做。

   --versions
      在目录列表中包含旧版本。

   --version-at
      显示指定时间点的文件版本。
      
      参数应为日期,“2006-01-02”,日期时间“2006-01-02 15:04:05”或表示那么久以前的持续时间,例如“100d”或“1h”。
      
      请注意,在使用此选项时不允许执行文件写操作,因此无法上传文件或删除文件。
      
      有关有效格式,请参阅[时间选项文档](/docs/#time-option)。

   --decompress
      如果设置,则将解压缩 gzip 编码的对象。
      
      可以使用 "Content-Encoding: gzip" 在 S3 中上传对象。通常情况下,rclone 会将这些文件作为压缩对象下载。
      
      如果设置了此标志,则 rclone 会在收到带有 "Content-Encoding: gzip" 的对象时进行解压缩。这意味着 rclone 无法检查大小和哈希值,但文件内容将被解压缩。
      

   --might-gzip
      如果后端可能会对对象进行 gzip 压缩,请设置此选项。
      
      通常情况下,提供者在下载对象时不会更改对象。如果一个对象在上传时没有使用 `Content-Encoding: gzip`,则在下载时也不会设置该选项。
      
      但是,一些提供者可能会对对象进行 gzip 压缩,即使它们没有使用 `Content-Encoding: gzip` 进行上传(例如 Cloudflare)。
      
      如果设置了此标志,并且 rclone 下载了具有设置了 `Content-Encoding: gzip` 和分块传输编码的对象,则 rclone 将在流式传输时即时解压缩对象。
      
      如果将其设置为 unset(默认值),则 rclone 将根据提供者的设置选择要应用的选项,但您可以在此处覆盖 rclone 的选择。
      

   --no-system-metadata
      禁止对系统元数据的设置和读取


OPTIONS:
   --access-key-id value           AWS 访问密钥 ID。[$ACCESS_KEY_ID]
   --acl value                     在创建存储桶和存储或复制对象时使用的 canned ACL。[$ACL]
   --endpoint value                S3 API 的终端节点。[$ENDPOINT]
   --env-auth                      使用运行时获取 AWS 凭证(环境变量或环境模拟)。 (默认值:false) [$ENV_AUTH]
   --help, -h                      显示帮助信息
   --location-constraint value     位置约束 - 必须与区域匹配。[$LOCATION_CONSTRAINT]
   --region value                  要连接的区域。[$REGION]
   --secret-access-key value       AWS 密钥访问密码。[$SECRET_ACCESS_KEY]
   --server-side-encryption value  在存储对象时使用的服务器端加密算法。[$SERVER_SIDE_ENCRYPTION]
   --sse-kms-key-id value          如果使用 KMS ID,则必须提供密钥的 ARN。[$SSE_KMS_KEY_ID]

   高级选项

   --bucket-acl value               在创建存储桶时使用的 canned ACL。[$BUCKET_ACL]
   --chunk-size value               用于上传的块大小。 (默认值: "5Mi") [$CHUNK_SIZE]
   --copy-cutoff value              切换到分块复制的大小阈值。 (默认值: "4.656Gi") [$COPY_CUTOFF]
   --decompress                     如果设置,则将解压缩 gzip 编码的对象。 (默认值:false) [$DECOMPRESS]
   --disable-checksum               在对象元数据中不存储 MD5 校验和。 (默认值:false) [$DISABLE_CHECKSUM]
   --disable-http2                  禁用 S3 后端的 HTTP/2 使用。 (默认值:false) [$DISABLE_HTTP2]
   --download-url value             自定义下载的终端节点。[$DOWNLOAD_URL]
   --encoding value                 后端的编码方式。 (默认值: "Slash,InvalidUtf8,Dot") [$ENCODING]
   --force-path-style               如果为 true,则使用路径样式访问;如果为 false,则使用虚拟主机样式访问。 (默认值:true) [$FORCE_PATH_STYLE]
   --list-chunk value               列表块的大小(每个 ListObject S3 请求的响应列表大小)。 (默认值:1000) [$LIST_CHUNK]
   --list-url-encode value          是否对列表进行 URL 编码:true/false/unset。 (默认值:"unset") [$LIST_URL_ENCODE]
   --list-version value             要使用的 ListObjects 的版本:1、2 或 0 以自动选择。 (默认值:0) [$LIST_VERSION]
   --max-upload-parts value         多部分上传中的最大部分数。 (默认值:10000) [$MAX_UPLOAD_PARTS]
   --memory-pool-flush-time value   内部内存缓冲池刷新的频率。 (默认值:"1m0s") [$MEMORY_POOL_FLUSH_TIME]
   --memory-pool-use-mmap           是否在内部内存池中使用 mmap 缓冲区。 (默认值:false) [$MEMORY_POOL_USE_MMAP]
   --might-gzip value               设置此选项如果后端可能会对对象进行 gzip 压缩。 (默认值:"unset") [$MIGHT_GZIP]
   --no-check-bucket                如果设置,则不尝试检查存储桶是否存在或创建存储桶。 (默认值:false) [$NO_CHECK_BUCKET]
   --no-head                        如果设置,则不 HEAD 已上传的对象以检查完整性。 (默认值:false) [$NO_HEAD]
   --no-head-object                 如果设置,则在获取对象之前不执行 HEAD。 (默认值:false) [$NO_HEAD_OBJECT]
   --no-system-metadata             禁止对系统元数据的设置和读取 (默认值:false) [$NO_SYSTEM_METADATA]
   --profile value                  共享凭证文件中要使用的配置文件。[$PROFILE]
   --session-token value            AWS 会话令牌。[$SESSION_TOKEN]
   --shared-credentials-file value  共享凭证文件的路径。[$SHARED_CREDENTIALS_FILE]
   --sse-customer-algorithm value   如果使用 SSE-C,则存储对象时使用的服务器端加密算法。[$SSE_CUSTOMER_ALGORITHM]
   --sse-customer-key value         如果使用 SSE-C,则可以提供用于加密/解密数据的加密密钥。[$SSE_CUSTOMER_KEY]
   --sse-customer-key-base64 value  如果使用 SSE-C,则必须提供以 base64 格式编码的加密密钥以加密/解密数据。[$SSE_CUSTOMER_KEY_BASE64]
   --sse-customer-key-md5 value     如果使用 SSE-C,则可以提供加密密钥的 MD5 校验和(可选)。[$SSE_CUSTOMER_KEY_MD5]
   --upload-concurrency value       多部分上传的并发数。 (默认值:4) [$UPLOAD_CONCURRENCY]
   --upload-cutoff value            切换到分块上传的大小阈值。 (默认值:"200Mi") [$UPLOAD_CUTOFF]
   --use-multipart-etag value       是否在多部分上传中使用 ETag 进行验证 (默认值:"unset") [$USE_MULTIPART_ETAG]
   --use-presigned-request          是否使用预签名请求或 PutObject 进行单部分上传 (默认值:false) [$USE_PRESIGNED_REQUEST]
   --v2-auth                        如果为 true,则使用 v2 认证。 (默认值:false) [$V2_AUTH]
   --version-at value               显示指定时间点的文件版本。 (默认值:"off") [$VERSION_AT]
   --versions                       在目录列表中包含旧版本。 (默认值:false) [$VERSIONS]

   General

   --name value  存储的名称(默认值:自动生成)
   --path value  存储的路径

Last updated