Skip To Content

데이터 저장소 백업 관리

데이터 손상이나 데이터 저장소 오류와 같은 재해 발생 시 데이터를 복구하려면 백업이 필요합니다. 데이터 저장소 백업을 생성해 안전한 위치에 보관하면 어떤 이유로든 데이터 저장소가 충돌하여 다시 시작할 수 없을 때 새 ArcGIS Data Store를 설정하고 백업 파일에 접근해 데이터를 복원할 수 있습니다.

참고 사항:

백업 파일은 데이터 저장소만 포함하며, GIS Server 사이트 또는 포털의 백업을 유지 관리하지 않습니다. 하지만 데이터 저장소 머신에 오류가 발생하거나 데이터가 손상되는 경우 백업을 통해 손실된 데이터를 복구할 수 있습니다. 데이터가 저장된 머신에서 오류가 발생하더라도 호스팅 피처 레이어 및 씬 레이어가 작동하도록 하려면 추가 데이터 저장소 머신을 설정하여 데이터 저장소를 고가용성으로 구성합니다.

관계형 또는 타일 캐시 데이터 저장소(또는 둘 다)를 사용하는 경우에는 Portal for ArcGIS와 함께 설치된 webgisdr 도구를 대신 사용하여 백업을 생성할 수 있습니다. webgisdr 도구를 사용할 때는 포털, 호스팅 서버 및 페더레이션된 서버의 백업도 생성됩니다. 이 도구의 사용에 대한 자세한 내용은 ArcGIS Enterprise 관리자 가이드에서 Portal for ArcGIS 백업을 참고하세요.

서버에 장애가 발생하거나 홍수로 인해 서버가 고장이 나는 등의 재해가 발생한 경우 백업을 통해 데이터를 복구할 수 있습니다. 그러나 백업 서버가 홍수로 인해 고장이 났다면 데이터를 복구할 수 없습니다. 따라서 데이터 저장소와 다른 서버에 백업 파일을 저장해야 합니다.

백업 위치 정의

관계형 데이터 저장소 또는 타일 캐시 데이터 저장소를 생성하는 경우 백업 위치가 데이터 저장소와 동일한 머신 상에 자동으로 구성됩니다. 이러한 유형의 데이터 저장소 각각에 대해 다른 머신의 안전한 공유 파일 디렉터리를 구성해야 합니다. 기본 설정에 따라 ArcGIS Data Storec:\arcgisdatastore\backups에 관계형 데이터 저장소의 백업을 생성합니다. 즉, 백업 파일이 관계형 또는 타일 캐시 데이터 저장소와 같은 머신에 저장됩니다. 데이터 저장소 또는 프라이머리 머신에 오류가 발생할 경우 백업 파일에 접근할 수 없으므로 호스팅 피처 레이어 및 씬 레이어 데이터를 복원할 수 없습니다. 이러한 이유로 기본 위치가 아닌 다른 위치에 백업을 저장해야 합니다.

또한 백업 파일을 데이터 저장소와 동일한 머신에 둘 경우 이러한 파일로 인해 해당 머신의 디스크 공간이 빠르게 소모될 수 있습니다. 디스크 공간이 부족해지면 데이터 손상을 방지하기 위해 관계형 데이터 저장소는 읽기 전용 모드로 설정됩니다. 타일 캐시 및 시공간형 빅데이터 저장소 머신의 경우 디스크 공간이 부족한 경우 데이터 저장소가 종료됩니다.

관계형 타일 캐시 데이터 저장소의 경우 자동 백업의 파일 디렉터리를 정의해야 합니다. 이 파일 디렉터리는 이러한 데이터 저장소의 기본 백업 위치로 사용됩니다. ArcGIS Data Store에서 자동으로 생성된 백업은 항상 기본 백업 위치에 놓입니다.

10.6.1부터는 관계형 데이터 저장소의 추가 백업 위치(기타 파일 공유, Amazon Simple Storage Service(S3) 버킷, Microsoft Azure Blob 저장소 컨테이너 등)를 정의할 수 있습니다.이러한 추가 위치는 backupdatastore 유틸리티를 사용하여 생성된 전체 백업을 저장하는 데 사용할 수 있습니다.

시공간 빅데이터 저장소의 경우 백업 파일을 생성할 때 기본 위치가 구성되지 않습니다. 시공간 빅데이터 저장소 백업 파일을 생성하려면 하나 이상의 백업 위치를 등록해야 합니다. 파일 공유, Amazon S3 버킷 또는 Microsoft Azure Blob 저장소 컨테이너를 등록할 수 있습니다. 또한 시공간 빅데이터 저장소의 여러 백업 위치를 지정하고 그 중 하나를 기본 위치로 설정할 수 있습니다. ArcGIS Data Store에서 자동으로 생성된 백업은 항상 기본 백업 위치에 놓입니다. backupdatastore 유틸리티를 사용하여 수동으로 생성한 전체 백업을 추가 백업 위치에 넣을 수 있습니다.

관계형, 타일 캐시, 시공간형 빅데이터 저장소의 백업을 수동으로 생성할 수 있습니다. 시공간형 빅데이터 저장소의 백업을 생성하려면 공유 네트워크 위치를 등록해야 합니다. 또한 백업을 생성하려면 타일 캐시 백업용 위치도 등록해야 합니다. 타일 캐시 데이터 저장소용 공유 네트워크 위치 등록은 선택 사항이지만, 해당 위치를 등록하는 것이 좋습니다.

기본 백업 위치 등록

ArcGIS Data Store에서 예약된(자동) 백업을 통해 생성된 파일을 배치할 수 있는 안전한 공유 기본 백업 위치를 등록합니다.

데이터 저장소 백업 파일을 저장하기 위한 공유 디렉터리를 구성하려면 다음 단계를 수행합니다.

  1. 백업 파일을 저장할 공유 디렉터리를 다른 머신에 생성합니다.

    참고 사항:

    이 디렉터리에는 데이터 저장소 백업에 포함되어 있는 모든 파일이 들어갈 만큼 충분한 저장 공간이 있어야 합니다. 파일의 개수와 크기는 데이터 및 사용 중인 데이터 저장소의 유형에 따라 달라집니다. 타일 캐시 데이터 저장소는 크기가 매우 클 수 있으며, 시공간형 빅데이터 저장소는 더욱 큰 경우가 많습니다. 데이터 저장소 백업은 자동으로 생성되며 백업 위치가 채워지는 속도는 백업 일정백업을 보관하는 기간(일)에 따라 달라집니다. 백업 디렉터리의 크기를 모니터링하며 필요에 따라 이러한 설정 및 저장소 크기를 조정합니다.

    같은 ArcGIS Data Store 배포에 있는 모든 시공간형 빅데이터 머신에는 이 공유 디렉터리에 대한 접근 권한이 있어야 합니다.

  2. ArcGIS Data Store를 설치하거나 업그레이드할 때 도메인 ArcGIS Data Store 계정을 지정하지 않았다면, 지금 도메인 계정을 사용하여 실행하도록 데이터 저장소 서비스를 설정하고 공유 네트워크 디렉터리에 대한 읽기/쓰기 권한을 해당 계정에 부여합니다.
  3. configurebackuplocation 유틸리티를 실행하여 공유 디렉터리를 데이터 저장소 백업용 기본 결과 위치로 지정합니다.

    시공간 빅데이터 저장소의 경우 백업 파일을 생성할 때 기본 위치가 구성되지 않습니다. 시공간 빅데이터 저장소 백업 파일을 생성하려면 하나 이상의 백업 위치를 등록해야 합니다. 파일 공유, Amazon S3 버킷 또는 Microsoft Azure Blob 저장소 컨테이너를 등록할 수 있습니다.

    백업에 권장되는 공유 디렉터리를 구성하기 전에 사용자가 호스팅 피처 레이어를 발행하고 자동 백업이 수행된 경우 configurebackuplocation 유틸리티는 기존 관계형 데이터 저장소 백업 파일을 기본 백업 위치에서 공유 디렉터리로 이동합니다.

    타일 캐시 데이터 저장소는 크기가 커질 수 있으므로 타일 캐시 데이터 저장소 백업용으로 새 위치를 구성해도 기존 데이터가 복사되지는 않습니다. 그러므로 사용자가 씬 레이어를 발행하기 전에 공유 백업 위치를 지정해야 합니다.

    이 예시에서는 관계형 데이터 저장소의 백업 위치가 sysshare 컴퓨터의 ds_backups 공유 디렉터리로 변경됩니다.

    configurebackuplocation --operation change --store relational 
    --location \\sysshare\ds_backups 
    You are going to change the backup location of the data store. Existing backups will be copied to the new location and it could take a few moments.
    Please do not interrupt the process once it has started.
    Do you want to continue (Yes or No)? Yes

    이 예시에서는 시공간형 빅데이터 저장소용으로 백업 위치가 등록됩니다. 해당 위치는 sysshare에 있는 공유 디렉터리 bigdatabus입니다.

    configurebackuplocation --operation register --store spatiotemporal 
    --location \\sysshare\bigdatabus

    클라우드 저장소 백업 위치 구성 예시를 비롯한 추가 예시와 전체 구문에 대해서는 ArcGIS Data Store 유틸리티 참조를 참고하세요.

팁:

원격 백업 디렉터리가 몇 분 이상 오프라인 상태이면 공유 백업 위치가 사용 가능한 즉시 전체 수동 백업을 수행합니다.

수동 백업용 추가 백업 위치 등록

시공간 빅데이터 저장소의 경우 추가 백업 위치를 등록할 수 있습니다. 10.6.1부터는 관계형 데이터 저장소에 대해서도 추가 백업 위치를 등록할 수 있습니다. 이러한 추가 위치는 backupdatastore 유틸리티를 사용하여 수동으로 생성된 백업을 저장하는 데 사용할 수 있습니다.

수동 백업 저장소 위치의 경우 ArcGIS Data Store에서 백업 파일이 삭제되지 않으므로 수동 백업 저장소 위치를 직접 정리해야 합니다.

다음 단계에 따라 시공간 빅데이터 저장소 및 관계형 데이터 저장소에 대해 수동으로 생성한 백업 파일의 다른 위치를 추가합니다.

  1. 백업 파일의 다른 위치를 생성합니다.
    • 공유 디렉터리를 등록하려면 다른 머신에 디렉터리를 생성합니다. 모든 백업 파일이 들어갈 만큼 충분한 저장 공간이 있어야 하며 backupdatastore 유틸리티를 실행하기 위해 ArcGIS Data Store 머신에 연결할 때 사용하는 로그인에는 이 디렉터리에 대한 쓰기 접근 권한이 있어야 합니다. 시공간 빅데이터 저장소의 두 번째 공유 디렉터리를 생성하려는 경우 동일한 ArcGIS Data Store 배포 내의 모든 시공간 빅데이터 저장소 머신에 이 공유 디렉터리에 대한 접근 권한이 있어야 합니다.
    • S3 버킷을 등록하려면 AWS 계정에 버킷을 생성합니다. 백업 파일을 수용할 수 있는 버킷 크기를 선택합니다.
    • Azure Blob 저장소 컨테이너를 등록하려면 Azure Blob 저장소 계정에 컨테이너를 생성합니다.
  2. register 작업이 포함된 configurebackuplocation 유틸리티를 실행하여 이 추가 백업 위치를 등록합니다.

자동 백업

기본 설정에 따라 ArcGIS Data Store에서는 데이터 저장소에 대한 전체 백업을 4일 주기로 생성하지만 updatebackschedule 유틸리티를 실행하여 데이터 저장소에서 전체 백업이 생성되는 빈도를 변경할 수 있습니다.

백업 빈도 변경

사용자가 많은 수의 호스팅 피처 레이어를 발행하고 편집하는 경우 전체 관계형 데이터 저장소 백업을 생성하는 빈도를 늘려야 합니다. 사용자가 많은 수의 씬 레이어를 발행하는 경우 타일 캐시 데이터 저장소 백업을 생성하는 빈도를 늘려야 합니다. ArcGIS GeoEvent Server 사이트에 대용량 스트리밍 데이터가 보관되거나 여러 사용자가 GeoAnalytics 도구를 빈번하게 실행하는 경우에는 시공간 빅데이터 저장소 백업 빈도를 늘립니다.

참고 사항:

기본 설정에 따라 관계형 데이터 저장소에 대한 증분 백업이 비활성화됩니다. 지정 시간 복구를 활성화한 경우 로그 파일이 꽉 찼을 때나 매 5분 단위 중 먼저 발생하는 때에 증분 백업이 생성됩니다. 데이터베이스에 의해 증분 백업 생성이 제어되므로 증분 백업 생성 빈도는 제어할 수 없습니다.

백업 위치에 모든 백업 파일을 저장할 수 있는 충분한 공간이 있어야 합니다. 백업 크기는 데이터 양에 따라 다르지만 기본 백업 설정을 사용하는 경우 2개의 전체 백업과 7일분의 증분 백업 파일이 포함됩니다. 이러한 파일의 크기는 데이터의 양과 크기에 따라 결정됩니다. 관계형 데이터 저장소에 대한 지정 시간 복구를 다시 활성화한 경우 기본 설정에 따라 백업에는 7일간의 증분 백업 파일도 포함됩니다.

타일 캐시 또는 시공간 빅데이터 저장소 백업 파일은 자동으로 정리되지 않습니다. 따라서 이러한 데이터 저장소에 대한 백업 빈도를 늘리면 백업 위치를 더 자주 정리해야 합니다.

자동 백업을 비활성화하고 백업을 수동으로 생성하려는 경우에는 백업 빈도를 0으로 설정합니다. 자동 백업을 비활성화한 경우 머신 장애 또는 기타 데이터 재해 발생 시 데이터 손실을 방지하기 위해 백업을 직접 생성해야 합니다.

updatebackupschedule 유틸리티는 <ArcGIS Data Store installation directory>\datastore\tools 디렉터리에 설치되어 있습니다.

  1. 관리자 권한으로 실행 옵션을 사용하여 명령 프롬프트를 엽니다.
  2. updatebackupschedule 유틸리티를 실행하여 필요한 백업 빈도를 지정합니다.

    유틸리티를 실행하는 구문은 다음과 같습니다.

    updatebackupschedule [--store relational|tileCache|spatiotemporal] [--starttime <local server time>] --frequency <number of days>

    예를 들어 전체 관계형 데이터 저장소 백업을 매일 오전 3시(로컬 서버 시간)로 예약하려면 다음을 입력합니다.

    updatebackupschedule --store relational --starttime 03:00:00 --frequency 1

    다음 예시에서는 시공간 빅데이터 저장소의 백업이 3일마다 오후 11시 30분(로컬 서버 시간)으로 예약되었습니다.

    updatebackupschedule --store spatiotemporal --starttime 23:30:00 --frequency 3

자동 관계형 데이터 저장소 백업 파일의 보관 기간 변경

기본 설정에 따라 백업 디렉터리는 백업 파일을 7일 동안 보관합니다. 이는 기본 백업 빈도(4일마다)와 보관 일정(7일)을 유지하는 경우 백업 디렉터리에 2개의 전체 백업이 포함된다는 것을 의미합니다. 지정 시간 복구를 다시 활성화한 경우 백업 디렉터리에는 7일간의 증분 백업 파일도 포함됩니다. 이러한 파일의 크기는 데이터의 양과 크기에 따라 결정됩니다. 백업이 저장되는 머신에는 이러한 파일이 모두 저장될 만큼 충분한 디스크 공간이 있어야 합니다. 백업 빈도를 늘릴 경우 백업 파일의 보관 기간을 줄이는 것을 고려하세요. 이전 섹션에서 백업 빈도를 매일로 늘렸습니다. 백업 디렉터리가 너무 커지지 않게 하려면 백업 파일 보관 기간을 줄이세요.

updatebackupretaindays 유틸리티를 실행하는 구문은 다음과 같습니다.

updatebackupretaindays <number of days>

다음 예에서는 백업 파일 보관 기간이 4일로 변경되었습니다.

updatebackupretaindays 4

수동 백업

자동 백업을 사용하는 경우에도 평소의 백업 일정 외에, 시스템 업그레이드 이전 또는 다른 위치에 두 번째 전체 백업 생성 등의 특정한 목적으로 백업을 생성할 수 있습니다.

자동 백업을 비활성화한 경우 수동 백업을 정기적으로 생성해야 합니다.

관계형 데이터 저장소의 경우에도 수동으로 생성한 모든 백업 파일은 수동으로 삭제해야 합니다.

유틸리티를 실행하여 데이터 저장소 백업 생성

backupdatastore 유틸리티를 사용하여 데이터 저장소에 피처 레이어 데이터의 전체 백업을 만들 수 있습니다. 데이터 저장소를 많이 변경하거나 업그레이드하기 전에 수동으로 전체 백업을 생성할 수 있습니다. 또는 프로젝트의 첫 번째 단계 종료 때와 같은 특정 상태의 데이터 복사본을 보존하기 위해 백업을 생성할 수 있습니다.

타일 캐시 데이터 저장소에 대해 backupdatastore 유틸리티를 처음 실행하면 모든 기존 타일 캐시 데이터 저장소 데이터베이스에 대한 백업 복사본이 만들어집니다. 마찬가지로 시공간 데이터 저장소에 대해 backupdatastore 유틸리티를 처음 실행하면 전체 백업이 생성됩니다. 이 두 가지 유형의 데이터 저장소는 모두 매우 클 수 있으므로, backupdatastore 유틸리티를 처음 실행한 이후부터는 실행할 때마다 유틸리티를 마지막으로 실행한 이후에 생성된 데이터의 백업 복사본만 생성됩니다.

backupdatastore 유틸리티를 실행하기 위해 데이터 저장소 머신에 연결하는 데 사용하는 로그인에 데이터 저장소 백업 위치에 대한 읽기 및 쓰기 접근 권한이 있어야 합니다.

backupdatastore 유틸리티를 실행하는 구문은 다음과 같습니다.

backupdatastore [<backup name>] [--store {relational|tileCache|spatiotemporal}] [--location <backup_arguments>] [--prompt <yes | no>]

--location 매개변수는 시공간 빅데이터 저장소 및 관계형 데이터 저장소에 지원됩니다. 이 매개변수의 인수는 다음과 같으며, 세미콜론(;)으로 구분해야 합니다.

  • type=: 유효한 유형은 fs(파일 공유), s3(AWS S3 버킷) 또는 azure(Azure Blob 저장소 컨테이너)입니다.
  • name=: 시공간 빅데이터 저장소용으로 구성한 백업 위치에 이름을 지정한 경우 backupdatastore 유틸리티를 실행할 때 이 위치 이름을 사용하여 백업 파일을 생성할 위치를 지정할 수 있습니다.
  • location=: 백업 위치 이름을 지정하지 않은 경우 백업 typelocation을 지정해야 합니다. 파일 공유의 경우 파일 경로를 제공합니다. S3 버킷의 경우 버킷 이름을 제공합니다. Azure Blob 저장소 컨테이너의 경우 컨테이너 이름을 제공합니다.

파일에 의미 있는 백업 이름을 제공하면 데이터를 복구하려고 할 때 쉽게 찾을 수 있습니다. 이름을 지정하지 않으면 유틸리티가 파일에 기본 이름을 할당합니다. 기본 이름은 datastorename-timestamp 형식입니다. 예를 들어 데이터 저장소 이름이 corpds이고 백업을 2014년 7월 10일 14:25:49:554 UTC에 생성했으면 백업 파일 이름은 corpds-20140710142549554가 됩니다.

백업을 생성할 것인지 묻는 메시지가 나타납니다. yes 또는 y를 입력해 백업 생성을 진행합니다.

팁:

수동 백업을 스크립팅하려면 다음 예시에서와 같이 확인 프롬프트를 숨기는 플래그를 포함시킵니다.

backupdatastore --store tilecache --prompt no

이 예시에서는 데이터 저장소가 백업 파일 이름을 생성합니다. 스크립트에는 고유한 백업 파일 이름이 필요합니다.

수동 데이터 저장소 백업 삭제

backupdatastore 유틸리티를 사용하여 생성한 데이터 저장소 백업 파일을 더 이상 유지할 필요가 없으면 listbackups 유틸리티를 실행하여 특정 백업 파일 이름을 가져온 후 deletebackup 유틸리티를 실행하여 필요하지 않은 파일을 제거할 수 있습니다. 예를 들어 데이터 저장소를 업그레이드하고 모든 레이어가 정상적으로 작동함을 확인했으면 업그레이드 전에 생성한 데이터 저장소 백업을 삭제할 수 있습니다.

이 예시에서는 preupgrade1104_bu 데이터베이스가 삭제되었습니다.

listbackups --store relational
Backup_Name                      Status           Backup_Time         Mode
====================================================================================
phase1proj_bu                    BackupComplete   2014-03-08 14:12    manual
phase2proj_bu                    BackupComplete   2014-06-21 11:43    manual
preupgrade1104_bu                BackupComplete   2014-10-04 09:30    manual
ds_gdt1oomh-20141103160748082    BackupComplete   2014-11-01 03:00    scheduled
deletebackup preupgrade1104_bu
You are attempting to delete backup 'preupgrade1104_bu'. This operation is irreversible.
Do you wish to continue (Yes or No)?yes
Operation completed successfully