# Lyvecloud

{% code fullWidth="true" %}

```
```

{% endcode %}

\`\`\` NAME: singularity storage create s3 lyvecloud - Seagate Lyve Cloud

USAGE: singularity storage create s3 lyvecloud \[command options] \[arguments...]

DESCRIPTION: --env-auth 从运行时获取AWS凭证（环境变量或EC2/ECS元数据，如果没有环境变量）。

```
  仅在access_key_id和secret_access_key为空时适用。

  示例：
     | false | 在下一步中输入AWS凭证。
     | true  | 从环境获取AWS凭证（环境变量或IAM）。
```

\--access-key-id AWS Access Key ID。

```
  为空表示匿名访问或运行时凭证。
```

\--secret-access-key AWS Secret Access Key（密码）。

```
  为空表示匿名访问或运行时凭证。
```

\--region 连接的区域。

```
  如果您使用的是S3 clone并且没有区域，则留空。

  示例：
     | <unset>            | 如果不确定，请使用此选项。
     |                    | 将使用v4签名和空区域。
     | other-v2-signature | 仅当v4签名不起作用时使用此选项。
     |                    | 例如：早期版本的Jewel/v10 CEPH。
```

\--endpoint S3 API的终端点。

```
  使用S3克隆时需要。

  示例：
     | s3.us-east-1.lyvecloud.seagate.com      | Seagate Lyve Cloud US East 1（弗吉尼亚）
     | s3.us-west-1.lyvecloud.seagate.com      | Seagate Lyve Cloud US West 1（加利福尼亚）
     | s3.ap-southeast-1.lyvecloud.seagate.com | Seagate Lyve Cloud AP Southeast 1（新加坡）
```

\--location-constraint 地理位置限制-必须设置为匹配区域。

```
  如果不确定，请留空。仅在创建存储桶时使用。
```

\--acl 创建存储桶、存储或复制对象时使用的预定义ACL。

```
  此ACL用于创建对象，并且如果未设置bucket_acl，则也用于创建存储桶。

  更多信息请访问 https://docs.aws.amazon.com/AmazonS3/latest/dev/acl-overview.html#canned-acl

  请注意，当S3服务器端复制对象时，此ACL被应用，因为S3不复制源中的ACL，而是写入一个新的ACL。

  如果acl是一个空字符串，则不会添加X-Amz-Acl:标题，并且将使用默认（私有）。
```

\--bucket-acl 创建存储桶时使用的预定义ACL。

```
  更多信息请访问 https://docs.aws.amazon.com/AmazonS3/latest/dev/acl-overview.html#canned-acl

  请注意，仅在创建存储桶时应用此ACL。如果未设置，则使用"acl"。

  如果acl和bucket_acl都为空字符串，则不会添加X-Amz-Acl:标题，并且将使用默认（私有）。

  示例：
     | private            | 所有者拥有FULL_CONTROL权限。
     |                    | 其他人没有访问权限（默认）。
     | public-read        | 所有者拥有FULL_CONTROL权限。
     |                    | AllUsers组具有读取权限。
     | public-read-write  | 所有者拥有FULL_CONTROL权限。
     |                    | AllUsers组具有读取和写入权限。
     |                    | 一般情况下不推荐在存储桶上授予此权限。
     | authenticated-read | 所有者拥有FULL_CONTROL权限。
     |                    | AuthenticatedUsers组具有读取权限。
```

\--upload-cutoff 切换到分块上传的大小。

```
  大于此大小的文件将分块上传，每块的大小为chunk_size。
  最小值为0，最大值为5GiB。
```

\--chunk-size 上传时要使用的块大小。

```
  当上传大于upload_cutoff或未知大小的文件（例如，使用"rclone rcat"上传的文件或使用"rclone mount"或Google照片或Google文档上传的文件）时，它们将以此块大小作为多部分上传进行上传。

  请注意，“--s3-upload-concurrency”每个传输的chunks块大小是在内存中缓冲的。

  如果您正在高速链接上传输大文件并且有足够的内存，那么增加这个值将加快传输速度。

  当上传已知大小的大文件以保持在10000个chunks限制之下时，Rclone将自动增加块大小。

  未知大小的文件按配置的块大小进行上传。由于默认块大小为5 MiB，并且最多可以有10000个chunks，这意味着默认情况下您可以流式上传的文件的最大大小为48 GiB。如果要流式上传更大的文件，则需要增加chunk_size。

  增加块大小会降低使用"-P"标志显示的进度统计数据的准确性。Rclone当SDK发送一个chunk时就会把这个chunk标记为已发送，但实际上它可能仍在上传。更大的块大小意味着更大的SDK缓冲区和进度报告与真实情况更不相符。
```

\--max-upload-parts 多部分上传中的最大部分数。

```
  此选项定义在执行多部分上传时要使用的最大多部分块数。

  如果服务不支持AWS S3规范的10000个chunks，则此选项可能非常有用。

  当正在上传一个已知大小的大文件时，Rclone将自动增加块大小以使其保持在此块数限制之下。
```

\--copy-cutoff 切换到多部分复制的大小。

```
  大于此大小的需要进行服务器端复制的文件将按此大小分块复制。

  最小值为0，最大值为5GiB。
```

\--disable-checksum 不要将MD5校验和与对象元数据一起存储。

```
  通常情况下，Rclone会在上传之前计算输入的MD5校验和，以便将其添加到对象的元数据中。这对于数据完整性检查是很好的，但对于大文件来说可能导致启动上传的时间过长。
```

\--shared-credentials-file 共享凭证文件的路径。

```
  如果env_auth = true，那么Rclone可以使用共享凭证文件。

  如果此变量为空，则Rclone将查找“AWS_SHARED_CREDENTIALS_FILE”环境变量。如果环境变量的值为空，则将默认为当前用户的主目录。

      Linux/OSX: "$HOME/.aws/credentials"
      Windows:   "%USERPROFILE%\.aws\credentials"
```

\--profile 共享凭证文件中要使用的配置文件。

```
  如果env_auth = true，那么Rclone可以使用共享凭证文件。此变量控制在该文件中使用哪个配置文件。

  如果为空，则默认值为环境变量“AWS_PROFILE”或“default”，如果环境变量也未设置。
  
```

\--session-token AWS会话令牌。

\--upload-concurrency 多部分上传的并发数。

```
  同一文件的多个chunks将同时上传。

  如果您正在高速链接上上传少量大文件，并且这些上传未完全利用您的带宽，则增加此值可能有助于加快传输速度。
```

\--force-path-style 如果为true，则使用路径格式访问，如果为false，则使用虚拟主机格式访问。

```
  如果为true（默认值），则使用路径格式访问；如果为false，则使用虚拟路径格式访问。请参阅[the AWS S3
  docs](https://docs.aws.amazon.com/AmazonS3/latest/dev/UsingBucket.html#access-bucket-intro)获取更多信息。

  某些提供商（例如：AWS，阿里云OSS，网易COS或腾讯COS）要求将此设置为false，rclone将根据提供商设置自动执行此操作。
```

\--v2-auth 如果为true，则使用v2身份验证。

```
  如果为false（默认值），则Rclone将使用v4身份验证。如果设置为true，则Rclone将使用v2身份验证。

  仅当v4签名无法正常工作时使用此选项，例如：早期版本的Jewel/v10 CEPH。
```

\--list-chunk 列出块的大小（每个ListObject S3请求的响应列表）。

```
  此选项也称为AWS S3规范中的“MaxKeys”，“max-items”或“page-size”。
  大多数服务在请求多于1000个对象时都会截断响应列表。
  在AWS S3中，这是一个全局最大值，不可更改，请参见[AWS S3](https://docs.aws.amazon.com/cli/latest/reference/s3/ls.html)。
  在Ceph中，可以使用“rgw list buckets max chunk”选项来增加此值。
```

\--list-version 要使用的ListObjects版本：1，2或0自动。

```
  当S3最初推出时，仅提供了用于枚举存储桶中的对象的ListObjects请求。

  然而，从2016年5月开始，引入了ListObjectsV2请求。它具有更高的性能，应尽可能使用。

  如果设置为默认值0，则Rclone将根据设置的提供商猜测要调用哪个list_objects方法。如果它猜测错误，则可能在此处手动设置。
```

\--list-url-encode 是否对列表进行URL编码：true/false/unset

```
  某些提供商支持URL编码列表，如果可用，通过使用控制字符访问文件名时，这样更可靠。如果将其设置为unset（默认值），则Rclone将选择如何应用，但您可以在此处覆盖Rclone的选择。
```

\--no-check-bucket 如果设置，则不尝试检查存储桶是否存在或创建它。

```
  如果您知道存储桶已经存在并尝试尽量减少Rclone的事务数量时，这可能很有用。

  如果使用的用户没有创建存储桶的权限，则也可能需要此选项。在v1.52.0之前，这将被静默通过，因为那时有一个错误。
```

\--no-head 如果设置，则不对已上传的对象执行HEAD请求以检查完整性。

```
  如果要尽量减少Rclone的事务数量，这可能很有用。
  
  设置后，表示如果在PUT上传对象后收到200 OK消息，则Rclone将认为已正确上传对象。

  特别地，它将假设：
  
  - 元数据，包括修改时间、存储类和内容类型与上传的一样；
  - 大小与上传的一样；
  
  它从单个部分PUT的响应中读取以下项目：
  
  - MD5SUM
  - 上传日期
  
  对于多部分上传，不会读取这些项目。
  
  如果上传长度未知的源对象，则Rclone **将**执行HEAD请求。
  
  设置此标志会增加未检测到的上传失败的机会，特别是大小不正确，因此不建议在正常操作中使用。实际上，在没有此标志的情况下，发生上传失败的可能性非常小。
```

\--no-head-object 如果设置，则在获取对象时不会进行HEAD请求。

\--encoding 后端的编码方式。

```
  有关更多信息，请参阅[概述中的编码部分](/overview/#encoding)。
```

\--memory-pool-flush-time 内部内存缓冲池刷新的频率。

```
  需要额外缓冲区（例如分块）的上传将使用内存缓冲池进行分配。
  此选项控制将未使用的缓冲区从内存缓冲池中删除的频率。
```

\--memory-pool-use-mmap 是否在内部内存缓冲池中使用mmap缓冲区。

\--disable-http2 禁用S3后端的HTTP/2使用。

```
  s3（特别是minio）后端和HTTP/2目前存在未解决的问题。默认情况下，s3后端启用HTTP/2，但可以在这里禁用。解决该问题后将删除此标志。

  参见：https://github.com/rclone/rclone/issues/4673，https://github.com/rclone/rclone/issues/3631
```

\--download-url 下载的自定义终结点。

```
  通常将其设置为CloudFront CDN URL，因为AWS S3通过CloudFront网络下载数据时提供更便宜的出口流量。
```

\--use-multipart-etag 是否在多部分上传中使用ETag进行验证。

```
  这应为true，false或保留设置为提供商的默认值。
```

\--use-presigned-request 是否使用预签名请求或PutObject进行单部分上传。

```
  如果设置为false，Rclone将使用AWS SDK的PutObject上传对象。

  Rclone < 1.59版本使用预签名请求上传单部分对象，将此标志设置为true将重新启用该功能。这在特殊情况或用于测试之外不应该是必需的。
```

\--versions 在目录列表中包含旧版本。

\--version-at 按指定的时间显示文件版本。

```
  参数应为日期，"2006-01-02"，日期时间"2006-01-02
  15:04:05"或YYYY-MM-DD格式的时间间隔，例如"100d"或"1h"。

  请注意，在使用此选项时，不允许执行文件写操作，因此无法上传文件或删除文件。

  请参阅[时间选项文档](/docs/#time-option)获取有效格式。
```

\--decompress 如果设置，将解压缩gzip编码的对象。

```
  可以使用"Content-Encoding: gzip"将对象上传到S3。通常情况下，Rclone会下载这些文件作为压缩的对象。

  如果设置了此标志，则Rclone将在接收到这些文件时使用"Content-Encoding: gzip"对其进行解压缩。这意味着Rclone无法检查大小和哈希值，但文件内容将被解压缩。
```

\--might-gzip 如果后端可能压缩对象，请进行此设置。

```
  通常情况下，提供者在下载时不会更改对象。如果未使用`Content-Encoding: gzip`上传对象，则在下载时不会设置该项。

  但是，某些提供商即使在未使用`Content-Encoding: gzip`上传对象的情况下，也可能对对象进行压缩（例如Cloudflare）。

  如果设置了此标志，并且Rclone下载了一个具有设置`Content-Encoding: gzip`和分块传输编码的对象，则Rclone将动态解压缩该对象。

  如果设置为unset（默认值），则Rclone将选择如何应用，但您可以在此处覆盖Rclone的选择。
```

\--no-system-metadata 禁止设置和读取系统元数据

OPTIONS: --access-key-id value AWS Access Key ID。\[$ACCESS\_KEY\_ID] --acl value 创建存储桶和存储或复制对象时使用的预定义ACL。\[$ACL] --endpoint value S3 API的终端点。\[$ENDPOINT] --env-auth 从运行时获取AWS凭证（环境变量或EC2/ECS元数据，如果没有环境变量）。 (默认值：false) \[$ENV\_AUTH] --help, -h 显示帮助 --location-constraint value 地理位置限制-必须设置为匹配区域。\[$LOCATION\_CONSTRAINT] --region value 连接的区域。\[$REGION] --secret-access-key value AWS Secret Access Key (密码)。\[$SECRET\_ACCESS\_KEY]

Advanced

\--bucket-acl value 创建存储桶时使用的预定义ACL。\[$BUCKET\_ACL] --chunk-size value 上传时要使用的块大小。 (默认值："5Mi") \[$CHUNK\_SIZE] --copy-cutoff value 切换到多部分复制的大小。 (默认值："4.656Gi") \[$COPY\_CUTOFF] --decompress 如果设置，将解压缩gzip编码的对象。 (默认值：false) \[$DECOMPRESS] --disable-checksum 不要将MD5校验和与对象元数据一起存储。 (默认值：false) \[$DISABLE\_CHECKSUM] --disable-http2 禁用S3后端的HTTP/2使用。 (默认值：false) \[$DISABLE\_HTTP2] --download-url value 下载的自定义终结点。\[$DOWNLOAD\_URL] --encoding value 后端的编码方式。 (默认值："Slash,InvalidUtf8,Dot") \[$ENCODING] --force-path-style 如果为true，则使用路径格式访问；如果为false，则使用虚拟路径格式访问。 (默认值：true) \[$FORCE\_PATH\_STYLE] --list-chunk value 列出块的大小（每个ListObject S3请求的响应列表）。 (默认值：1000) \[$LIST\_CHUNK] --list-url-encode value 是否对列表进行URL编码：true/false/unset (默认值："unset") \[$LIST\_URL\_ENCODE] --list-version value 要使用的ListObjects版本：1，2或0自动。 (默认值：0) \[$LIST\_VERSION] --max-upload-parts value 多部分上传中的最大部分数。 (默认值：10000) \[$MAX\_UPLOAD\_PARTS] --memory-pool-flush-time value 内部内存缓冲池刷新的频率。 (默认值："1m0s") \[$MEMORY\_POOL\_FLUSH\_TIME] --memory-pool-use-mmap 是否在内部内存缓冲池中使用mmap缓冲区。 (默认值：false) \[$MEMORY\_POOL\_USE\_MMAP] --might-gzip value 如果后端可能压缩对象，请进行此设置。 (默认值："unset") \[$MIGHT\_GZIP] --no-check-bucket 如果设置，则不尝试检查存储桶是否存在或创建它。 (默认值：false) \[$NO\_CHECK\_BUCKET] --no-head 如果设置，则不对已上传的对象执行HEAD请求以检查完整性。 (默认值：false) \[$NO\_HEAD] --no-head-object 如果设置，则在获取对象时不会进行HEAD请求。 (默认值：false) \[$NO\_HEAD\_OBJECT] --no-system-metadata 禁止设置和读取系统元数据 (默认值：false) \[$NO\_SYSTEM\_METADATA] --profile value 共享凭证文件中要使用的配置文件。\[$PROFILE] --session-token value AWS会话令牌。\[$SESSION\_TOKEN] --shared-credentials-file value 共享凭证文件的路径。\[$SHARED\_CREDENTIALS\_FILE] --upload-concurrency value 多部分上传的并发数。 (默认值：4) \[$UPLOAD\_CONCURRENCY] --upload-cutoff value 切换到分块上传的大小。 (默认值："200Mi") \[$UPLOAD\_CUTOFF] --use-multipart-etag value 是否在多部分上传中使用ETag进行验证 (默认值："unset") \[$USE\_MULTIPART\_ETAG] --use-presigned-request 是否使用预签名请求或PutObject进行单部分上传 (默认值：false) \[$USE\_PRESIGNED\_REQUEST] --v2-auth 如果为true，则使用v2身份验证。 (默认值：false) \[$V2\_AUTH] --version-at value 按指定的时间显示文件版本。 (默认值："off") \[$VERSION\_AT] --versions 在目录列表中包含旧版本。 (默认值：false) \[$VERSIONS]

General

\--name value 存储的名称 (默认值：自动生成的) --path value 存储的路径

```
```


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://data-programs.gitbook.io/singularity/zh/cli-reference/storage/create/s3/lyvecloud.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
