Guardando una copia de seguridad en AWS por menos de 4 euros al año.
Tras revisar mis archivos quiero guardar una copia de seguridad en la nube de unos 65 GB.
Mis fotos, vídeos y documentos personales estarán en la nube por si mis otros respaldos fallan o se vuelven
irrecuperables y a bajo coste.
En la presente guía se va a seguir una serie de pasos en la última parte que están orientados a
ejecuciones en un entorno Linux / Unix. Si estás en Windows y tienes posibilidad de habilitar WSL
(Windows Subsystem for Linux) podrás seguir también la guía sin problema.
Configurando el bucket
Dejo la configuración por defecto ya que por ejemplo, el acceso ya se configura como privado salvo indicación contraria y es lo que interesa. Elijo solamente el nombre de mi bucket y la región que sea Europa central o de la zona oeste. La encriptación en el bucket la dejo deshabilitada. Yo me encargaré de encriptar mis archivos antes de la subida.
¡Ya tengo mi bucket creado! Ahora, de forma preventiva por posibles meteduras de pata, configuraré una regla del ciclo de vida de mis archivos, ya que no quiero que accidentalmente se queden en un S3 Standard o algún plan más caro, sino que quiero archivarlos en Deep Glacier.
Comprimiendo los archivos y encriptándolos
Ahora pasaré a comprimir mis archivos:
$ XZ_OPT='-T0 -9' tar -cJvpf - Documentos/ | gpg -o documentos.tar.xz.gpg --symmetric --cipher-algo aes256
Para desencriptarlo después sólo tendré que ejecutar:
$ cat documentos.tar.xz.gpg.* | gpg -d | tar -xJvpf -
Descargo un script que facilitará la subida de archivos:
$ git clone https://github.com/m-radzikowski/aws-s3-personal-backup.git
Creando usuario con permisos
Una vez comprimido necesitaré también crear un usuario, con el fin de garantizar permisos a rclone, en IAM.
Subiendo la copia de seguridad
Configuro rclone:
$ rclone configure
Para las siguientes elecciones:
Storage> 5
provider> 1
env_auth> 1
access_key_id> [access key generado en IAM]
secret_access_key> [secret access key generado en IAM]
region> [la region del bucket, 11 en mi caso]
endpoint>
location_constraint> 11
acl> 1
server_side_encryption> 1
sse_kms_key_id> 1
storage_class> 7 [IMPORTANTE! Aquí selecciono 7 que es DEEP_ARCHIVE]
Ahora sólo queda ejecutar el script de subida.
$ ./uploadS3.sh -b nombre_bucket -n nombre -p "/home/alberto/documentos.tar.xz.gpg" -v
¡Ya tengo mi copia subida a AWS S3 Glacier Deep Archive!
Recuerda que es una copia de seguridad de emergencia, y el mayor coste vendrá de recuperar y descargar los archivos, no por mantenerlos.