# Cloudflare

{% code fullWidth="true" %}

```
이름:
   singularity storage create s3 cloudflare - Cloudflare R2 Storage

사용법:
   singularity storage create s3 cloudflare [옵션] [인자...]

설명:
   --env-auth
      실행 시점에서 AWS 자격 증명 가져오기 (환경 변수 또는 env vars가 없는 경우 EC2/ECS 메타 데이터).
      
      access_key_id 및 secret_access_key가 비어 있는 경우에만 적용됩니다.

      예시:
         | false | 다음 단계에서 AWS 자격 증명을 입력합니다.
         | true  | 환경 (env vars 또는 IAM)에서 AWS 자격 증명 가져오기.

   --access-key-id
      AWS 액세스 키 ID.
      
      익명 액세스 또는 실행 시점 자격 증명인 경우 비워 둡니다.

   --secret-access-key
      AWS 비밀 액세스 키 (비밀번호).
      
      익명 액세스 또는 실행 시점 자격 증명인 경우 비워 둡니다.

   --region
      연결할 지역.

      예시:
         | auto | R2 버킷은 지연 시간을 최소화하기 위해 Cloudflare의 데이터 센터에 자동으로 분산됩니다.

   --endpoint
      S3 API에 대한 엔드포인트.
      
      S3 클론을 사용하는 경우 필수입니다.

   --bucket-acl
      버킷을 생성할 때 사용되는 Canned ACL.
      
      자세한 정보는 https://docs.aws.amazon.com/AmazonS3/latest/dev/acl-overview.html#canned-acl을 참조하십시오.
      
      이 ACL은 버킷을 생성할 때만 적용됩니다. 설정되어 있지 않으면 "acl"이 대신 사용됩니다.
      
      "acl" 및 "bucket_acl"이 빈 문자열인 경우 "X-Amz-Acl:" 헤더는 추가되지 않고 기본값(개인)이 사용됩니다.
      

      예시:
         | private            | 소유자에게 FULL_CONTROL 권한이 있습니다.
         |                    | 다른 사람은 액세스 권한이 없습니다 (기본값).
         | public-read        | 소유자에게 FULL_CONTROL 권한이 있습니다.
         |                    | AllUsers 그룹이 읽기 액세스 권한을 갖습니다.
         | public-read-write  | 소유자에게 FULL_CONTROL 권한이 있습니다.
         |                    | AllUsers 그룹이 읽기 및 쓰기 액세스 권한을 갖습니다.
         |                    | 버킷에 대해 이 권한을 부여하는 것은 일반적으로 권장되지 않습니다.
         | authenticated-read | 소유자에게 FULL_CONTROL 권한이 있습니다.
         |                    | AuthenticatedUsers 그룹이 읽기 액세스 권한을 갖습니다.

   --upload-cutoff
      청크 업로드로 전환하는 크기 제한.
      
      이보다 큰 파일은 chunk_size의 청크로 업로드됩니다.
      최소값은 0이고 최대값은 5 GiB입니다.

   --chunk-size
      업로드에 사용할 청크 크기.
      
      upload_cutoff보다 큰 파일이나 크기를 모르는 파일 (예: "rclone rcat" 또는 "rclone mount" 또는 Google
      사진 또는 Google 문서로 업로드 됨)은 이 청크 크기를 사용하여 멀티파트 업로드로 업로드됩니다.
      
      참고로 "--s3-upload-concurrency" 덩어리(크기는 이 크기로 설정됩니다)는 전송당 메모리에 버퍼링됩니다.
      
      대역폭이 높은 링크를 통해 대량의 파일을 전송하고 충분한 메모리가 있는 경우 이를 증가시켜 전송 속도를 높일 수 있습니다.
      
      Rclone은 알려진 크기의 큰 파일을 업로드 할 때 10,000개의 청크 제한을 유지하기 위해 자동으로 청크 크기를 증가시킵니다.
      
      크기를 모르는 파일은 구성된 chunk_size로 업로드됩니다. 기본 chunk_size는 5 MiB이며 최대 10,000개의 청크가 있을 수 있습니다.
      따라서 기본적으로 스트림 업로드 할 수 있는 파일의 최대 크기는 48 GiB입니다. 더 큰 파일을 스트림 업로드하려면 chunk_size를 증가시켜야 합니다.
      
      청크 크기를 증가시키면 "-P" 플래그와 함께 표시되는 진행 통계의 정확성이 감소합니다. Rclone은 청크가 AWS SDK에 의해 버퍼링 될 때 청크가 보낸 것으로
      처리하지만 실제로는 업로드 중인 경우도 있을 수 있습니다. 더 큰 청크 크기는 더 큰 AWS SDK 버퍼 및 진행률 보고 더 정확성이 떨어지기 때문에 진행률 통계를
      잘못 표시할 것이다.

   --max-upload-parts
      멀티파트 업로드의 최대 부분 개수.
      
      이 옵션은 멀티파트 업로드 시 사용할 멀티파트 청크의 최대 수를 정의합니다.
      
      AWS S3 명세의 10,000 청크를 지원하지 않는 서비스가 있는 경우 유용할 수 있습니다.
      
      Rclone은 알려진 크기의 큰 파일을 업로드 할 때 10,000개의 청크 제한을 유지하기 위해 청크 크기를 자동으로 증가시킵니다.
      

   --copy-cutoff
      멀티파트 복사로 전환하는 크기 제한.
      
      서버 측에서 복사해야 하는 이 크기보다 큰 파일은 이 크기로 청크 복사됩니다.
      
      최소값은 0이고 최대값은 5 GiB입니다.

   --disable-checksum
      객체 메타데이터에 MD5 체크섬 저장하지 않음.
      
      일부 대형 파일의 업로드 시작에 긴 지연을 유발할 수 있는 MD5 체크섬을 rclone은 업로드 전에 입력의 MD5 체크섬을 계산하여 객체 메타데이터에 추가할 수
      있습니다.

   --shared-credentials-file
      공유 자격증명 파일의 경로.
      
      env_auth=true인 경우 rclone은 공유 자격 증명 파일을 사용할 수 있습니다.
      
      이 변수가 비어있으면 rclone은 "AWS_SHARED_CREDENTIALS_FILE" 환경 변수를 찾습니다. 환경 값이 비어 있는 경우 기본값은 현재 사용자의 홈 디렉토리입니다.
      
          Linux/OSX: "$HOME/.aws/credentials"
          Windows:   "%USERPROFILE%\.aws\credentials"
      

   --profile
      공유 자격증명 파일에서 사용할 프로필.
      
      env_auth=true인 경우 rclone은 공유 자격 증명 파일을 사용할 수 있습니다. 이 변수는 그 파일에서 사용할 프로필을 제어합니다.
      
      비워 두면 환경 변수 "AWS_PROFILE" 또는 그 환경 변수가 설정되지 않은 경우 "default"로 기본값이 됩니다.
      

   --session-token
      AWS 세션 토큰.

   --upload-concurrency
      멀티파트 업로드의 동시성.
      
      파일의 동일한 청크를 동시에 업로드합니다.
      
      대역폭을 완전히 활용하지 못하는 경우에 대용량 파일 일부를 빠르게 전송하기 위해 이 값을 증가시킬 수 있습니다.

   --force-path-style
      true이면 경로 스타일 액세스, false이면 가상 호스팅 스타일을 사용합니다.
      
      이 값이 true(기본값)인 경우 rclone은 경로 스타일 액세스를 사용하고 false이면 rclone은 가상 경로 스타일을 사용합니다. 자세한 내용은 [AWS S3
      문서](https://docs.aws.amazon.com/AmazonS3/latest/dev/UsingBucket.html#access-bucket-intro)를 참조하십시오.
      
      일부 공급자(AWS, Aliyun OSS, Netease COS 또는 Tencent COS 등)는이 값을 false로 설정해야 합니다. rclone은 공급자 설정에 따라 자동으로 이 작업을
      수행합니다.

   --v2-auth
      true이면 v2 인증을 사용합니다.
      
      false(기본값)인 경우 rclone은 v4 인증을 사용합니다. 설정되어 있는 경우 rclone은 v2 인증을 사용합니다.
      
      v4 서명이 작동하지 않는 경우에만 사용하세요. 예를 들어, 이전 버전의 Jewel/v10 CEPH 경우입니다.

   --list-chunk
      목록 청크의 크기 (각 ListObject S3 요청에 대한 응답 목록).
      
      이 옵션은 AWS S3 명세의 "MaxKeys", "max-items" 또는 "page-size"라고도 알려져 있습니다.
      대부분의 서비스는 요청한 이상의 응답 목록을 1000개로 자릅니다.
      AWS S3에서 전역 최대값이므로 변경할 수 없습니다. [AWS S3](https://docs.aws.amazon.com/cli/latest/reference/s3/ls.html) 참조.
      Ceph는 "rgw list buckets max chunk" 옵션으로 이 값을 증가시킬 수 있습니다.
      

   --list-version
      사용할 ListObjects의 버전: 1,2 또는 자동 (0).
      
      S3가 처음 시작되었을 때는 버킷의 객체를 나열하기 위해 ListObjects 호출만 제공했습니다.
      
      그러나 2016 년 5 월에 ListObjectsV2 호출이 도입되었습니다. 이는 훨씬 더 높은 성능을 제공하며 가능하면 사용해야 합니다.
      
      기본값 0으로 설정하면 rclone은 공급자가 설정하는 것에 따라 어떤 객체 목록 방법을 호출할지 추측합니다.
      잘못 추측된 경우 여기에서 수동으로 설정할 수 있습니다.
      

   --list-url-encode
      목록 URL 인코딩 여부: true/false/unset
      
      일부 공급자는 목록을 URL로 인코딩하고 파일 이름에 컨트롤 문자를 사용할 때 이 기능을 지원합니다. 이 값이 unset(기본값)로 설정된 경우 rclone은 공급자
      설정에 따라 적용할 내용을 선택합니다. 그러나 여기에서 rclone의 선택을 무시할 수 있습니다.
      

   --no-check-bucket
      버킷의 존재 여부 점검이나 생성을 시도하지 않음.
      
      버킷이 이미 존재한다는 것을 알고 있는 경우 rclone이 수행하는 트랜잭션 수를 최소화하려는 경우 유용할 수 있습니다.
      
      버킷 생성 권한이 없는 사용자의 경우 필요할 수도 있습니다. 이전 버전의 v1.52.0 이전에는 버그로 인해 이 작업이 무음으로 전달되었습니다.
      

   --no-head
      업로드된 객체를 HEAD하여 무결성을 확인하지 않음.
      
      rclone은 기본적으로 PUT으로 객체를 업로드한 후 200 OK 메시지를 받으면 제대로 업로드된 것으로 가정합니다.
      
      특히 다음을 가정합니다:
      
      - 업로드된 메타데이터, 수정 시간, 저장소 클래스 및 콘텐츠 유형이 업로드된 대로이었음
      - 크기가 업로드된 대로
      

   --no-head-object
      GET하기 전에 HEAD를 수행하지 않을 경우 설정.

   --encoding
      백엔드용 인코딩.
      
      자세한 내용은 [개요의 인코딩 섹션](/overview/#encoding)을 참조하십시오.

   --memory-pool-flush-time
      내부 메모리 버퍼 풀이 플러시되는 주기.
      
      추가 버퍼를 필요로 하는 업로드(예: 멀티파트)는 할당을 위해 메모리 풀을 사용합니다.
      이 옵션은 사용되지 않은 버퍼가 풀에서 제거될 때를 제어합니다.

   --memory-pool-use-mmap
      내부 메모리 풀에서 mmap 버퍼를 사용할지 여부.

   --disable-http2
      S3 백엔드에서 HTTP/2 사용 비활성화.
      
      현재 s3 (특히 minio) 백엔드에는 HTTP/2에 관한 문제가 있습니다. s3 백엔드의 경우 HTTP/2가 기본적으로 활성화되지만 여기에서 비활성화할 수
      있습니다. 문제가 해결되면이 플래그가 제거됩니다.
      
      참고: https://github.com/rclone/rclone/issues/4673, https://github.com/rclone/rclone/issues/3631
      
      

   --download-url
      다운로드에 대한 사용자 지정 엔드포인트.
      AWS S3는 CloudFront 네트워크를 통해 다운로드 된 데이터에 대해 더 저렴한 이그레스를 제공하므로
      일반적으로 이것은 CloudFront CDN URL로 설정됩니다.

   --use-multipart-etag
      멀티파트 업로드에서 ETag를 사용하여 검증할지 여부
      
      true, false 또는 기본값(공급자 설정에 따름) 중 하나여야 합니다.
      

   --use-presigned-request
      단일 파트 업로드에 사전 서명된 요청 또는 PutObject를 사용할지 여부
      
      이 값을 false로 설정하면 rclone은 AWS SDK의 PutObject를 사용하여 객체를 업로드합니다.
      
      rclone < 1.59의 버전은 단일 파트 객체를 업로드하기 위해 사전 서명된 요청을 사용하고 이 플래그를 true로 설정하면 해당 기능이 다시 활성화됩니다.
      이 경우에는 예외적인 상황이나 테스트를 제외하고는 필요하지 않습니다.
      

   --versions
      디렉토리 목록에 이전 버전 포함.

   --version-at
      지정된 시간마다 파일 버전을 표시합니다.
      
      매개변수는 날짜인 "2006-01-02", 날짜 및 시간인 "2006-01-02 15:04:05" 또는 그 시간 전까지의 지속 시간인 "100d" 또는 "1h"일 수 있습니다.
      
      이 사용 시 파일 쓰기 작업이 허용되지 않으므로 파일을 업로드하거나 삭제할 수 없습니다.
      
      유효한 형식에 대해서는 [시간 옵션 설명서](/docs/#time-option)를 참조하십시오.
      

   --decompress
      있으면 gzip로 인코딩된 객체를 압축 해제합니다.
      
      S3로 "Content-Encoding: gzip"으로 객체를 업로드하는 것이 가능합니다. 일반적으로 rclone은 이러한 파일을 압축된 객체로 다운로드합니다.
      
      이 플래그가 설정되면 rclone은 객체를 "Content-Encoding: gzip"로 수신받을 때 압축 해제합니다. 따라서 rclone은 크기와 해시를 확인할 수
      없지만 파일 콘텐츠는 압축 해제됩니다.
      

   --might-gzip
      백엔드에서 객체를 gzip으로 인코딩할 수 있는 경우 이 값을 설정합니다.
      
      일반적으로 공급자는 객체를 다운로드할 때 객체를 변경하지 않습니다. "Content-Encoding: gzip"로 업로드되지 않은 객체의 경우
      다운로드 시 설정되지 않습니다.
      
      그러나 일부 공급자는 "Content-Encoding: gzip"로 업로드되지 않은 상태에서도 객체를 gzip으로 압축할 수 있습니다 (예 : Cloudflare).
      
      이렇게 하면 다음과 같은 오류를 받습니다.
      
          ERROR corrupted on transfer: sizes differ NNN vs MMM
      
      이 플래그를 설정하고 rclone이 Content-Encoding: gzip을 설정한 청크 전송 인코딩을 통해 객체를 다운로드하면 rclone은 객체를 실시간으로
      압축 해제합니다.
      
      unset으로 설정된 경우 (기본값) rclone은 공급자 설정에 따라 적용할 내용을 선택하지만 여기에서 rclone의 선택을 무시할 수 있습니다.
      

   --no-system-metadata
      시스템 메타데이터의 설정 및 읽기 억제


옵션:
   --access-key-id value      AWS 액세스 키 ID. [$ACCESS_KEY_ID]
   --endpoint value           S3 API에 대한 엔드포인트. [$ENDPOINT]
   --env-auth                 실행 시점에서 AWS 자격 증명 가져오기 (환경 변수 또는 env vars가 없는 경우 EC2/ECS 메타 데이터 설정).(기본값: false) [$ENV_AUTH]
   --help, -h                 도움말 표시
   --region value             연결할 지역. [$REGION]
   --secret-access-key value  AWS 비밀 액세스 키 (비밀번호). [$SECRET_ACCESS_KEY]

   Advanced

   --bucket-acl value               버킷을 생성할 때 사용되는 Canned ACL. [$BUCKET_ACL]
   --chunk-size value               업로드에 사용할 청크 크기. (default: "5Mi") [$CHUNK_SIZE]
   --copy-cutoff value              멀티파트 복사로 전환하는 크기 제한. (default: "4.656Gi") [$COPY_CUTOFF]
   --decompress                     있으면 gzip로 인코딩된 객체를 압축 해제합니다. (기본값: false) [$DECOMPRESS]
   --disable-checksum               객체 메타데이터에 MD5 체크섬 저장하지 않음. (기본값: false) [$DISABLE_CHECKSUM]
   --disable-http2                  S3 백엔드에서 HTTP/2 사용 비활성화. (기본값: false) [$DISABLE_HTTP2]
   --download-url value             다운로드에 대한 사용자 지정 엔드포인트. [$DOWNLOAD_URL]
   --encoding value                 백엔드에 대한 인코딩. (기본값: "슬래시, 잘못된 UTF8, 점") [$ENCODING]
   --force-path-style               true이면 경로 스타일 액세스, false이면 가상 호스팅 스타일을 사용합니다. (기본값: true) [$FORCE_PATH_STYLE]
   --list-chunk value               목록 청크의 크기 (각 ListObject S3 요청에 대한 응답 목록). (기본값: 1000) [$LIST_CHUNK]
   --list-url-encode value          목록을 URL로 인코딩할지 여부: true/false/unset (기본값: "unset") [$LIST_URL_ENCODE]
   --list-version value             사용할 ListObjects의 버전: 1,2 또는 0으로 설정하면 자동 추측됨. (기본값: 0) [$LIST_VERSION]
   --max-upload-parts value         멀티파트 업로드의 최대 부분 개수. (기본값: 10000) [$MAX_UPLOAD_PARTS]
   --memory-pool-flush-time value   내부 메모리 버퍼 풀이 플러시되는 주기. (기본값: "1m0s") [$MEMORY_POOL_FLUSH_TIME]
   --memory-pool-use-mmap           내부 메모리 풀에서 mmap 버퍼를 사용할지 여부. (기본값: false) [$MEMORY_POOL_USE_MMAP]
   --might-gzip value               백엔드에서 객체를 gzip으로 인코딩할 수 있는 경우 이 값을 설정합니다. (기본값: "unset") [$MIGHT_GZIP]
   --no-check-bucket                버킷의 존재 여부 점검이나 생성을 시도하지 않음. (기본값: false) [$NO_CHECK_BUCKET]
   --no-head                        업로드된 객체를 HEAD하여 무결성을 확인하지 않음. (기본값: false) [$NO_HEAD]
   --no-head-object                 GET하기 전에 HEAD를 수행하지 않을 경우 설정. (기본값: false) [$NO_HEAD_OBJECT]
   --no-system-metadata             시스템 메타데이터의 설정 및 읽기 억제 (기본값: false) [$NO_SYSTEM_METADATA]
   --profile value                  공유 자격증명 파일에서 사용할 프로필. [$PROFILE]
   --session-token value            AWS 세션 토큰. [$SESSION_TOKEN]
   --shared-credentials-file value  공유 자격증명 파일의 경로. [$SHARED_CREDENTIALS_FILE]
   --upload-concurrency value       멀티파트 업로드의 동시성. (기본값: 4) [$UPLOAD_CONCURRENCY]
   --upload-cutoff value            청크 업로드로 전환하는 크기 제한. (기본값: "200Mi") [$UPLOAD_CUTOFF]
   --use-multipart-etag value       멀티파트 업로드에서 ETag를 사용하여 검증할지 여부 (기본값: "unset") [$USE_MULTIPART_ETAG]
   --use-presigned-request          단일 파트 업로드에 사전 서명된 요청 또는 PutObject를 사용할지 여부 (기본값: false) [$USE_PRESIGNED_REQUEST]
   --v2-auth                        true이면 v2 인증을 사용합니다. (기본값: false) [$V2_AUTH]
   --version-at value               지정된 시간마다 파일 버전을 표시합니다. (기본값: "off") [$VERSION_AT]
   --versions                       디렉토리 목록에 이전 버전 포함. (기본값: false) [$VERSIONS]

   General

   --name value  스토리지의 이름 (기본값: 자동 생성)
   --path value  스토리지의 경로

```

{% endcode %}


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://data-programs.gitbook.io/singularity/kr/cli-reference/storage/create/s3/cloudflare.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
