Schema Conversion Tool
Schema Conversion Tool
Schema Conversion Tool
Amazon's trademarks and trade dress may not be used in connection with any product or service that is not Amazon's,
in any manner that is likely to cause confusion among customers, or in any manner that disparages or discredits
Amazon. All other trademarks not owned by Amazon are the property of their respective owners, who may or may not
be affiliated with, connected to, or sponsored by Amazon.
Schema Conversion Tool de AWS Guía del usuario
Table of Contents
¿Qué es la Herramienta de conversión de esquemas de AWS? ................................................................ 1
Introducción a la conversión de esquemas ..................................................................................... 2
Comentarios .............................................................................................................................. 3
Instalación, verificación y actualización ................................................................................................. 4
Instalación de la AWS SCT ........................................................................................................ 4
Instalación de versiones anteriores ...................................................................................... 5
Verificación de la descarga del archivo de AWS SCT ...................................................................... 6
Verificación de la suma de comprobación del archivo de la AWS SCT ....................................... 6
Verificación de los archivos RPM de AWS SCT en Fedora ....................................................... 7
Verificación de los archivos DEB de AWS SCT en Ubuntu ....................................................... 7
Verificación del archivo MSI de AWS SCT en Microsoft Windows .............................................. 8
Verificación de la aplicación AWS SCT en Mac OS ................................................................ 8
Instalación de los controladores de bases de datos necesarios ......................................................... 8
Instalación de controladores de JDBC en Linux .................................................................... 10
Almacenamiento de rutas a los controladores en la configuración global ................................... 10
Actualización del AWS SCT ...................................................................................................... 11
Uso de la interfaz de usuario de la AWS SCT ....................................................................................... 12
La ventana de proyecto de AWS SCT ........................................................................................ 12
Almacenamiento de perfiles de AWS ........................................................................................... 13
Almacenamiento de las credenciales de AWS ....................................................................... 14
Configuración del perfil predeterminado para un proyecto ....................................................... 16
Almacenamiento de la contraseña de la base de datos ................................................................... 16
Uso de la vista UNION ALL en proyectos con tablas con particiones ................................................ 16
Filtros de árbol de AWS SCT ..................................................................................................... 17
...................................................................................................................................... 17
Importación de una lista de archivos para el filtro de árbol ...................................................... 19
Ocultar esquemas .................................................................................................................... 19
Métodos abreviados de teclado ................................................................................................. 20
El informe de evaluación de la migración de la base de datos ........................................................ 21
Iniciar la SCT .......................................................................................................................... 24
Creación de un proyecto ........................................................................................................... 25
Conversión de su esquema ....................................................................................................... 26
Aplicación del esquema convertido a su instancia de base de datos de destino .................................. 28
Introducción ..................................................................................................................................... 30
Bases de datos de origen para AWS SCT ........................................................................................... 31
Uso de Oracle como origen para Herramienta de conversión de esquemas de AWS ........................... 31
Permisos necesarios para Oracle como origen ..................................................................... 32
Conexión a Oracle como origen ......................................................................................... 32
Oracle a PostgreSQL ....................................................................................................... 35
De Oracle a MySQL ........................................................................................................ 38
De Oracle a Amazon RDS Oracle ...................................................................................... 42
Uso de Microsoft SQL Server como origen para Herramienta de conversión de esquemas de AWS ....... 45
Fuente: Microsoft SQL Server ............................................................................................. 45
Origen: autenticación de Windows con Microsoft SQL Server ................................................... 46
Conexión a SQL Server como origen .................................................................................. 47
De SQL Server a MySQL ................................................................................................. 49
De SQL Server a PostgreSQL ........................................................................................... 50
De SQL Server a Amazon RDS for SQL Server ................................................................... 54
Utilizar MySQL como origen para Herramienta de conversión de esquemas de AWS .......................... 55
Fuente: MySQL ............................................................................................................... 55
Conexión a MySQL como origen ........................................................................................ 55
Utilizar PostgreSQL como origen para Herramienta de conversión de esquemas de AWS .................... 57
Fuente: PostgreSQL ......................................................................................................... 58
Conexión a PostgreSQL como origen ................................................................................. 58
Version 1.0
iii
Schema Conversion Tool de AWS Guía del usuario
Uso de Db2 LUW como origen para Herramienta de conversión de esquemas de AWS ....................... 60
Origen: Db2 LUW ............................................................................................................ 60
Conexión a Db2 LUW como origen .................................................................................... 62
De DB2LUW a PostgreSQL .............................................................................................. 64
Uso de Amazon Redshift como origen de Herramienta de conversión de esquemas de AWS ................ 65
Origen: Amazon Redshift .................................................................................................. 65
Conexión a Redshift como origen ....................................................................................... 65
Utilizar Oracle DW como origen para Herramienta de conversión de esquemas de AWS ...................... 67
Fuente: Oracle Data Warehouse ........................................................................................ 67
Conexión a OracleDW como origen .................................................................................... 67
Utilizar Teradata como origen para Herramienta de conversión de esquemas de AWS ........................ 70
Fuente: Teradata ............................................................................................................. 70
Conexión a Teradata como origen ...................................................................................... 70
Utilizar Netezza como origen para Herramienta de conversión de esquemas de AWS ......................... 73
Fuente: Netezza .............................................................................................................. 73
Conexión a Netezza como origen ....................................................................................... 74
Utilizar Greenplum como origen para Herramienta de conversión de esquemas de AWS ..................... 75
Fuente: Greenplum .......................................................................................................... 75
Conexión a Greenplum como origen ................................................................................... 75
Utilizar Vertica como origen para Herramienta de conversión de esquemas de AWS ........................... 77
Fuente: Vertica ................................................................................................................ 77
Conexión a Vertica como origen ........................................................................................ 78
Uso de Microsoft SQL Server DW como origen para Herramienta de conversión de esquemas de
AWS ....................................................................................................................................... 79
Fuente: Microsoft SQL Server Data Warehouse ..................................................................... 80
Conexión a SQLServerDW como origen .............................................................................. 80
Creación de informes de conversión .................................................................................................... 83
Informes de evaluación de migración ........................................................................................... 83
Creación de un informe de evaluación de la migración de la base de datos ............................... 84
Visualización del informe de evaluación .............................................................................. 85
Guardar el informe de evaluación ....................................................................................... 87
Informes de migración de WQF .................................................................................................. 88
Configuración del WQF de AWS ......................................................................................... 89
Preparación para importaciones de lotes .............................................................................. 90
Creación de informes ........................................................................................................ 93
Descripción de las categorías de la carga de trabajo .............................................................. 96
Conversión de esquemas de bases de datos ....................................................................................... 99
Creación de reglas de mapeo .................................................................................................. 101
Creación de reglas de mapeo .......................................................................................... 101
Creación de reglas de mapeo para objetos ........................................................................ 102
Exportación de reglas de mapeo ....................................................................................... 103
Conversión de su esquema ..................................................................................................... 103
Conversión del esquema ................................................................................................. 103
Edición del esquema convertido ....................................................................................... 105
Eliminación de un esquema convertido .............................................................................. 106
Administración de conversiones manuales ................................................................................. 107
Modificar su esquema de origen ....................................................................................... 107
Modificar su esquema de destino ..................................................................................... 108
Actualización de un esquema convertido ................................................................................... 108
Guardado y aplicación de un esquema ..................................................................................... 109
Guardar el esquema convertido en un archivo ..................................................................... 109
Aplicación del esquema convertido ................................................................................... 110
Esquema del paquete de extensión .................................................................................. 111
Comparación de esquemas ..................................................................................................... 112
Objetos transformados relacionados ......................................................................................... 113
Conversión de esquemas de almacén de datos a Amazon Redshift ....................................................... 114
Selección de estrategias y reglas de optimización ....................................................................... 115
Version 1.0
iv
Schema Conversion Tool de AWS Guía del usuario
Version 1.0
v
Schema Conversion Tool de AWS Guía del usuario
Version 1.0
vi
Schema Conversion Tool de AWS Guía del usuario
¿Qué es la Herramienta de
conversión de esquemas de AWS?
Puede utilizar la Herramienta de conversión de esquemas de AWS (AWS SCT) para convertir su esquema
de base de datos existente de un motor de base de datos a otro. Puede convertir esquemas relacionales
OLTP o esquemas de data warehouse. Su esquema convertido será apto para una instancia de base de
datos MySQL de Amazon Relational Database Service (Amazon RDS), un clúster de base de datos de
Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon
Redshift. El esquema convertido también puede utilizarse con una base de datos en una instancia Amazon
EC2 o almacenarse como datos en un bucket de Amazon S3.
AWS SCT admite varios estándares del sector, incluido el Estándar federal de procesamiento de la
información (FIPS, Federal Information Processing Standards) para conexiones a un bucket de Amazon S3
o cualquier otro recurso de AWS. AWS SCT también cumple con el Programa federal de administración de
riesgos y autorizaciones (FedRAMP, Federal Risk and Authorization Management Program). Para obtener
más detalles sobre AWS y los esfuerzos de conformidad, consulte Servicios de AWS en el ámbito del
programa de conformidad.
Microsoft SQL Server (versión 2008 y posteriores) Compatibilidad de Amazon Aurora con
MySQL, Compatibilidad de Amazon Aurora con
PostgreSQL, MariaDB 10.2 y 10.3, Microsoft SQL
Server, MySQL, PostgreSQL
Oracle (versión 10.2 y posteriores) Aurora MySQL, Aurora PostgreSQL, MariaDB 10.2
y 10.3, MySQL, Oracle, PostgreSQL
IBM Db2 LUW (versiones 9.1, 9.5, 9.7, 10.5 y 11.1) Aurora MySQL, MariaDB 10.2 y 10.3, MySQL,
PostgreSQL, Aurora PostgreSQL
Version 1.0
1
Schema Conversion Tool de AWS Guía del usuario
Introducción a la conversión de esquemas
Para obtener información acerca de cómo instalar AWS SCT, consulte Instalación, verificación y
actualización de Herramienta de conversión de esquemas de AWS (p. 4).
Para obtener una introducción a la interfaz de usuario de AWS SCT, consulte Uso de la interfaz de usuario
de la Herramienta de conversión de esquemas de AWS (p. 12).
Para obtener información acerca del proceso de conversión, consulte Convertir los esquemas de base de
datos utilizando el Herramienta de conversión de esquemas de AWS (p. 99).
Además de convertir su esquema de base de datos existente de un motor de base de datos a otro, AWS
SCT tiene algunas características adicionales que le ayudarán a trasladar sus datos y aplicaciones a la
nube de AWS:
• Puede utilizar agentes de extracción de datos para extraer datos de su almacén de datos para
prepararlos y migrarlos a Amazon Redshift. Para administrar los agentes de extracción de datos,
puede utilizar la AWS SCT. Para obtener más información, consulte Uso de agentes de extracción de
datos (p. 144).
• Puede utilizar la AWS SCT para crear puntos de conexión y tareas de AWS DMS. Puede ejecutar
y monitorizar estas tareas desde la AWS SCT. Para obtener más información, consulte Uso de la
Herramienta de conversión de esquemas de AWS con el AWS Database Migration Service (p. 143).
• Puede utilizar AWS SCT para optimizar su base de datos de Amazon Redshift existente. AWS SCT
recomienda claves de ordenación y distribución para optimizar su base de datos. Para obtener más
información, consulte Optimización de Amazon Redshift mediante la Herramienta de conversión de
esquemas de AWS (p. 129).
Version 1.0
2
Schema Conversion Tool de AWS Guía del usuario
Comentarios
• Puede utilizar la AWS SCT para copiar su esquema de base de datos local existente a una instancia
de base de datos de Amazon RDS que ejecute el mismo motor. Puede utilizar esta característica para
analizar posibles ahorros de costos en la migración a la nube y en el cambio del tipo de licencia.
• Puede utilizar la AWS SCT para convertir SQL en su código C++, C #, Java u otro tipo de código
de aplicación. Puede ver, analizar, editar y guardar el código SQL convertido. Para obtener más
información, consulte Conversión de SQL de aplicación con la Herramienta de conversión de esquemas
de AWS (p. 190).
Version 1.0
3
Schema Conversion Tool de AWS Guía del usuario
Instalación de la AWS SCT
Instalación, verificación y
actualización de Herramienta de
conversión de esquemas de AWS
La Herramienta de conversión de esquemas de AWS (AWS SCT) es una aplicación autónoma que
proporciona una interfaz de usuario basada en proyectos. La AWS SCT está disponible para Fedora Linux,
macOS, Microsoft Windows y Ubuntu Linux versión 15.04. AWS SCT solo es compatible con sistemas
operativos de 64 bits. La AWS SCT instala también Java Runtime Environment (JRE) versión 8u45.
Para asegurar que obtenga la versión correcta del archivo de distribución de la AWS SCT, proporcionamos
los pasos de verificación después de descargar el archivo comprimido. Puede verificar el archivo por medio
de los pasos proporcionados.
Temas
• Instalación de la AWS SCT (p. 4)
• Verificación de la descarga del archivo de AWS SCT (p. 6)
• Instalación de los controladores de bases de datos necesarios (p. 8)
• Actualización del AWS SCT (p. 11)
1. Utilice el enlace correspondiente a su sistema operativo para descargar el archivo comprimido que
contiene el instalador de la AWS SCT. Todos los archivos comprimidos tienen la extensión .zip.
Cuando extraiga el archivo del instalador de AWS SCT, tendrá el formato adecuado para su sistema
operativo.
• Microsoft Windows
• Apple macOS
• Ubuntu Linux (.deb)
• Fedora Linux (.rpm)
2. Extraiga el archivo instalador de la AWS SCT para su sistema operativo, según se muestra a
continuación.
Version 1.0
4
Schema Conversion Tool de AWS Guía del usuario
Instalación de versiones anteriores
3. Ejecute el archivo instalador de la AWS SCT extraído en el paso anterior. Utilice las instrucciones para
su sistema operativo, que se muestran a continuación.
4. Instale los controladores de Java Database Connectivity (JDBC) para sus motores de base de datos
de origen y destino. Para obtener instrucciones y enlaces de descarga, consulte Instalación de los
controladores de bases de datos necesarios (p. 8).
https://d211wdu1froga6.cloudfront.net/builds/1.0/<version>/<OS>/aws-schema-conversion-
tool-1.0.zip
Por ejemplo, para descargar AWS SCT versión 607, haga lo siguiente:
• MacOS: https://d211wdu1froga6.cloudfront.net/builds/1.0/607/MacOS/aws-schema-conversion-
tool-1.0.zip
• Windows: https://d211wdu1froga6.cloudfront.net/builds/1.0/607/Windows/aws-schema-conversion-
tool-1.0.zip
• Ubuntu: https://d211wdu1froga6.cloudfront.net/builds/1.0/607/Ubuntu/aws-schema-conversion-
tool-1.0.zip
Version 1.0
5
Schema Conversion Tool de AWS Guía del usuario
Verificación de la descarga del archivo de AWS SCT
• Fedora: https://d211wdu1froga6.cloudfront.net/builds/1.0/607/Fedora/aws-schema-conversion-
tool-1.0.zip
Temas
• Verificación de la suma de comprobación del archivo de la AWS SCT (p. 6)
• Verificación de los archivos RPM de AWS SCT en Fedora (p. 7)
• Verificación de los archivos DEB de AWS SCT en Ubuntu (p. 7)
• Verificación del archivo MSI de AWS SCT en Microsoft Windows (p. 8)
• Verificación de la aplicación AWS SCT en Mac OS (p. 8)
Para verificar el archivo de distribución de AWS SCT mediante una suma de comprobación
1. Descargue el archivo de distribución de AWS SCT mediante los enlaces de la sección de instalación.
2. Descargue el archivo de suma de comprobación, llamado sha256Check.txt. Por ejemplo, el archivo
puede tener un aspecto similar al siguiente:
Fedora b4f5f66f91bfcc1b312e2827e960691c269a9002cd1371cf1841593f88cbb5e6
Ubuntu 4315eb666449d4fcd95932351f00399adb6c6cf64b9f30adda2eec903c54eca4
Windows 6e29679a3c53c5396a06d8d50f308981e4ec34bd0acd608874470700a0ae9a23
MacOs ed56d3ab49309e92ac4d2ef439d35449ac1326f470c23dc5866e1bf0a60b0e67
3. Ejecute el comando de validación SHA256 para su sistema operativo en el directorio que contiene el
archivo de distribución. Por ejemplo, el comando para realizar la ejecución en un sistema operativo
Mac es el siguiente:
4. Compare los resultados del comando con el valor se muestra en el archivo sha256Check.txt. Los dos
valores deben coincidir.
Version 1.0
6
Schema Conversion Tool de AWS Guía del usuario
Verificación de los archivos RPM de AWS SCT en Fedora
1. Descargue el archivo de distribución de AWS SCT mediante los enlaces de la sección de instalación.
2. Verificación de la suma de comprobación del archivo de distribución de AWS SCT.
3. Extraiga el contenido del archivo de distribución. Localice el archivo RPM que desea verificar.
4. Descargue la clave pública de GPG desde amazon.com.public.gpg-key
5. Importe la clave pública a su base de datos RPM (asegúrese de obtener los permisos pertinentes) con
el siguiente comando:
1. Descargue el archivo de distribución de AWS SCT mediante los enlaces de la sección de instalación.
2. Verificación de la suma de comprobación del archivo de distribución de AWS SCT.
3. Extraiga el contenido del archivo de distribución. Localice el archivo DEB que desea verificar.
4. Descargue la firma separada de aws-schema-conversion-tool-1.0.latest.deb.asc.
5. Descargue la clave pública de GPG desde amazon.com.public.gpg-key.
6. Para importar la clave GPG pública, ejecute el siguiente comando:
Version 1.0
7
Schema Conversion Tool de AWS Guía del usuario
Verificación del archivo MSI de
AWS SCT en Microsoft Windows
1. Descargue el archivo de distribución de AWS SCT mediante los enlaces de la sección de instalación.
2. Verificación de la suma de comprobación del archivo de distribución de AWS SCT.
3. Extraiga el contenido del archivo de distribución. Localice el archivo MSI que desea verificar.
4. En Windows Explorer, haga clic con el botón derecho del ratón en el archivo MSI y seleccione
Properties.
5. Elija la pestaña Digital Signatures.
6. Verifique que la firma digital es de Amazon Services LLC.
1. Descargue el archivo de distribución de AWS SCT mediante los enlaces de la sección de instalación.
2. Verificación de la suma de comprobación del archivo de distribución de AWS SCT.
3. Extraiga el contenido del archivo de distribución.
4. Haga doble clic en el archivo DMG.
5. Instalar la AWS SCT.
6. Para verificar la aplicación, ejecute el siguiente comando:
Después de descargar los controladores, aportará la ubicación de los archivos de los controladores. Para
obtener más información, consulte Almacenamiento de rutas a los controladores en la configuración
global (p. 10).
Instale la última versión del controlador disponible. Las versiones de la tabla siguiente son
números de versión de ejemplo.
Version 1.0
8
Schema Conversion Tool de AWS Guía del usuario
Instalación de los controladores
de bases de datos necesarios
SAP ASE jconn4.jar Disponible como parte del SDK para SAP Adaptive
(Sybase ASE) Server Enterprise 16 con el producto SAP ASE.
La versión de prueba del SDK se puede descargar
desde https://www.sap.com/developer/trials-
downloads/additional-downloads/sdk-for-sap-
adaptive-server-enterprise-16-13351.html
Version 1.0
9
Schema Conversion Tool de AWS Guía del usuario
Instalación de controladores de JDBC en Linux
2. Instale el controlador de JDBC para el motor de su base de datos con los comandos que se muestran
a continuación.
Amazon Aurora
PROMPT> cd /usr/local/jdbc-drivers
(compatible con PROMPT> sudo tar xzvf /tmp/mysql-connector-java-X.X.X.tar.gz
MySQL)
Amazon Aurora
PROMPT> cd /usr/local/jdbc-drivers
(compatible con PROMPT> sudo cp -a /tmp/postgresql-X.X.X.jre7.tar .
PostgreSQL)
MySQL
PROMPT> cd /usr/local/jdbc-drivers
PROMPT> sudo tar xzvf /tmp/mysql-connector-java-X.X.X.tar.gz
Oracle
PROMPT> cd /usr/local/jdbc-drivers
PROMPT> sudo mkdir oracle-jdbc
PROMPT> cd oracle-jdbc
PROMPT> sudo cp -a /tmp/ojdbc7.jar .
PostgreSQL
PROMPT> cd /usr/local/jdbc-drivers
PROMPT> sudo cp -a /tmp/postgresql-X.X.X.jre7.tar .
1. En la AWS SCT, elija Settings (Configuración) y, a continuación, elija Global Settings (Configuración
global).
Version 1.0
10
Schema Conversion Tool de AWS Guía del usuario
Actualización del AWS SCT
2. En Global settings, seleccione Drivers. Agregue la ruta al archivo del controlador de JDBC para su
motor de base de datos de origen y su motor de base de datos de la instancia de base de datos de
Amazon RDS de destino.
Note
Para Teradata, debe especificar dos controladores separados por un punto y coma.
3. Cuando haya terminado de agregar las rutas de los controladores, seleccione OK.
1. Cuando esté en la AWS SCT, elija Help (Ayuda) y, a continuación, elija Check for Updates
(Comprobar actualizaciones).
2. En el cuadro de diálogo Check for Updates, elija What's New. Si el enlace no aparece, tiene la versión
más reciente.
Version 1.0
11
Schema Conversion Tool de AWS Guía del usuario
La ventana de proyecto de AWS SCT
Temas
• La ventana de proyecto de AWS SCT (p. 12)
• Uso de los perfiles del servicio de AWS en la Herramienta de conversión de esquemas de
AWS (p. 13)
• Almacenamiento de la contraseña de la base de datos (p. 16)
• Uso de la vista UNION ALL en proyectos con tablas con particiones (p. 16)
• Uso de los filtros de árbol de AWS SCT (p. 17)
• Ocultar esquemas en la vista de árbol de la AWS SCT (p. 19)
• Métodos abreviados de teclado de AWS SCT (p. 20)
• Crear y revisar el informe de evaluación de la migración de la base de datos (p. 21)
• Iniciar la Herramienta de conversión de esquemas de AWS (p. 24)
• Creación de un proyecto de Herramienta de conversión de esquemas de AWS (p. 25)
• Conversión de su esquema (p. 26)
• Aplicación del esquema convertido a su instancia de base de datos de destino (p. 28)
1. En el panel izquierdo, el esquema de la base de datos de origen se presenta en una vista en árbol. Su
esquema de base de datos se "carga en diferido". Dicho de otra manera, al seleccionar un elemento de
la vista en árbol, la AWS SCT obtiene y muestra el esquema actual de su base de datos de origen.
2. En el panel superior central, aparecerán los elementos de acción para los elementos del esquema del
motor de la base de datos de origen que no se hayan podido convertir automáticamente al motor de la
base de datos de destino.
3. En el panel derecho, el esquema de su instancia de base de datos de destino se presenta en una
vista en árbol. Su esquema de base de datos se "carga en diferido". Es decir, en el momento en que
selecciona un elemento de la vista en árbol, la AWS SCT obtiene y muestra el esquema actual de su
base de datos de destino.
Version 1.0
12
Schema Conversion Tool de AWS Guía del usuario
Almacenamiento de perfiles de AWS
4. En el panel inferior izquierdo, cuando se elige un elemento de esquema, se muestran las propiedades
que describen el elemento de esquema de origen y el comando SQL para crear ese elemento en la
base de datos de origen.
5. En el panel inferior derecho, cuando se elige un elemento de esquema, se muestran las propiedades
que describen el elemento de esquema de destino y el comando SQL para crear ese elemento en la
base de datos de destino. Puede editar este comando SQL y guardar el comando actualizado con su
proyecto.
Version 1.0
13
Schema Conversion Tool de AWS Guía del usuario
Almacenamiento de las credenciales de AWS
AWS SCT le solicita sus credenciales de AWS al obtener acceso a una característica que las necesite.
Puede almacenar sus credenciales en los ajustes globales de la aplicación. Cuando AWS SCT le pida sus
credenciales, puede seleccionar las credenciales almacenadas.
Puede almacenar distintos conjuntos de credenciales de AWS en los ajustes globales de la aplicación. Por
ejemplo, puede almacenar un conjunto de credenciales que utilice en situaciones de prueba y un conjunto
de credenciales diferente que utilice en situaciones de producción. También puede almacenar diferente
credenciales para diferentes regiones de AWS.
Schema/Database Elija el nombre del esquema y la base de datos que desea utilizar como
Name filtro. En el nombre del esquema, puede introducir “%” para seleccionar
todos los esquemas.
Version 1.0
14
Schema Conversion Tool de AWS Guía del usuario
Almacenamiento de las credenciales de AWS
Aparecerá el cuadro de diálogo Test Connection. Podrá ver el estado de cada uno de los servicios
conectados a su perfil. Pass indica que el perfil puede obtener acceso al servicio correctamente.
Version 1.0
15
Schema Conversion Tool de AWS Guía del usuario
Configuración del perfil predeterminado para un proyecto
6. Tras haber configurado su perfil, seleccione Save para guardar su perfil o Cancel para cancelar los
cambios.
7. Seleccione OK para cerrar el cuadro de diálogo Global Settings.
Version 1.0
16
Schema Conversion Tool de AWS Guía del usuario
Filtros de árbol de AWS SCT
Algunas bases de datos puede tener un gran número de objetos en la estructura de árbol. Puede utilizar
filtros de árbol en la AWS SCT para buscar objetos en las estructuras de árbol de origen y de destino.
Cuando utiliza un filtro de árbol, no cambia los objetos que se convierten al convertir la base de datos. El
filtro cambia únicamente lo que se ve en el árbol.
Los filtros de árbol funcionan con objetos que la AWS SCT ha precargado. En otras palabras, la AWS SCT
no carga objetos de la base de datos durante las búsquedas. Este enfoque significa que la estructura de
árbol, por lo general, contiene menos objetos que los que están presentes en la base de datos.
• El valor predeterminado del filtro es ANY, lo que significa que el filtro utiliza una búsqueda de nombre
para encontrar objetos.
• Al seleccionar uno o varios tipos de objeto, verá solo esos tipos de objetos en el árbol.
• Puede utilizar el filtro enmascarar para mostrar diferentes tipos de símbolos, incluidos Unicode, espacios
y caracteres especiales. El carácter “%” sirve de comodín para cualquier símbolo.
• Después de aplicar un filtro, el recuento solo muestra el número de objetos filtrados.
El icono de deshacer filtro está difuminado porque no hay ningún filtro aplicado en la
actualidad.
4. Introduzca la siguiente información en el cuadro de diálogo Tree Filter. Las opciones en el cuadro de
diálogo son diferentes para cada motor de base de datos.
Version 1.0
17
Schema Conversion Tool de AWS Guía del usuario
Filtros de árbol de AWS SCT
Schema/Database Elija el nombre del esquema y la base de datos que desea utilizar como
Name filtro. En el nombre del esquema, puede introducir “%” para seleccionar
todos los esquemas.
Nombre del objeto Elija el nombre de objeto si desea buscar por nombre de objeto.
Lista de tipos de objeto Seleccione objetos de la lista de tipos de objeto que puede utilizar como
filtro. Amplíe los nodos del árbol para cargar más objetos a la lista de tipos
de objeto.
5. Seleccione Apply. Después de seleccionar Apply, se activa el icono de deshacer filtro (al lado del
icono de filtro). Utilice este icono si desea eliminar los filtros que aplicó.
6. Seleccione Close para cerrar el cuadro de diálogo.
Version 1.0
18
Schema Conversion Tool de AWS Guía del usuario
Importación de una lista de archivos para el filtro de árbol
Al filtrar el esquema que aparece en el árbol, no cambia los objetos que se convierten al convertir su
esquema. El filtro cambia únicamente lo que se ve en el árbol.
1. Abra un proyecto de la AWS SCT existente, conéctese a la base de datos a la que desea aplicar el
filtro de árbol y, a continuación, elija el icono de filtro.
Version 1.0
19
Schema Conversion Tool de AWS Guía del usuario
Métodos abreviados de teclado
• Para Hide System Databases/Schemas, seleccione los esquemas y las bases de datos del sistema
por nombre para ocultarlos.
• Para Hide User Defined Databases/Schemas, escriba los nombres de las bases de datos y
esquemas definidos por el usuario que desee ocultar y, a continuación, seleccione Add. Los
nombres no distinguen entre mayúsculas y minúsculas.
• Seleccione Reset to Default para restablecer la vista de árbol a la configuración predeterminada.
5. Seleccione OK.
Version 1.0
20
Schema Conversion Tool de AWS Guía del usuario
El informe de evaluación de la migración de la base de datos
1. En el panel de la izquierda que muestra el esquema de la base de datos de origen, elija el objeto del
esquema para el que desea crear un informe de evaluación. Abra el menú contextual (clic secundario)
para el objeto y seleccione Create Report.
La pestaña Action Items muestra una lista de elementos que describen el esquema que no puede
convertirse automáticamente. Seleccione uno de los elementos de acción de la lista. AWS SCT resalta
el elemento en el esquema al que se aplica el elemento de acción, como se muestra a continuación.
Version 1.0
21
Schema Conversion Tool de AWS Guía del usuario
El informe de evaluación de la migración de la base de datos
La sección License Evaluation and Cloud Support contiene información sobre el traslado de sus
esquemas de bases de datos locales existentes a una instancia de base de datos de Amazon RDS
que ejecute el mismo motor. Por ejemplo, si desea cambiar tipos de licencia, esta sección del informe
le indica qué características de su base de datos actual deberían eliminarse.
Version 1.0
22
Schema Conversion Tool de AWS Guía del usuario
El informe de evaluación de la migración de la base de datos
También puede hacer clic en Save to CSV para guardar el informe como un archivo con valores
separados por comas (CSV). El archivo CSV contiene solamente información de elementos de acción.
Version 1.0
23
Schema Conversion Tool de AWS Guía del usuario
Iniciar la SCT
/opt/AWSSchemaConversionTool/AWSSchemaConversionTool
Version 1.0
24
Schema Conversion Tool de AWS Guía del usuario
Creación de un proyecto
/opt/AWSSchemaConversionTool/AWSSchemaConversionTool
Version 1.0
25
Schema Conversion Tool de AWS Guía del usuario
Conversión de su esquema
Conversión de su esquema
Utilice el siguiente procedimiento para convertir un esquema.
Version 1.0
26
Schema Conversion Tool de AWS Guía del usuario
Conversión de su esquema
3. Cuando la AWS SCT termina de convertir el esquema, puede ver el esquema propuesto en el panel a
la derecha del proyecto.
En este momento, no se aplica ningún esquema a su instancia de base de datos de Amazon RDS
de destino. El esquema planificado es parte de su proyecto. Si selecciona un elemento del esquema
convertido, podrá ver el comando de esquema previsto en el panel de la parte inferior en el centro de
la instancia de base de datos de Amazon RDS de destino.
Puede editar el esquema en esta ventana. El esquema editado se almacena como parte de su
proyecto y estará escrito en la instancia de base de datos de destino cuando decida aplicar su
esquema convertido.
Version 1.0
27
Schema Conversion Tool de AWS Guía del usuario
Aplicación del esquema convertido a su
instancia de base de datos de destino
Para aplicar el esquema de base de datos convertido a su instancia de base de datos de Amazon
RDS de destino
1. Seleccione el elemento del esquema del panel derecho del proyecto que indique el esquema previsto
para su instancia de base de datos de destino.
2. Abra el menú contextual (clic con el botón secundario) del elemento del esquema y seleccione Apply
to database.
Version 1.0
28
Schema Conversion Tool de AWS Guía del usuario
Aplicación del esquema convertido a su
instancia de base de datos de destino
Version 1.0
29
Schema Conversion Tool de AWS Guía del usuario
Introducción a Herramienta de
conversión de esquemas de AWS
Puede utilizar la Herramienta de conversión de esquemas de AWS (AWS SCT) para convertir el esquema
de la base de datos de origen a un esquema para bases de datos hospedadas en Amazon Web Services
(AWS). La aplicación AWS SCT ofrece una interfaz de usuario basada en proyectos. Casi todo el trabajo
que realice con AWS SCT comenzará por los siguientes pasos:
1. Instale AWS SCT. Para obtener más información, consulte Instalación, verificación y actualización de
Herramienta de conversión de esquemas de AWS (p. 4).
2. Instale un agente de AWS SCT, si es necesario. Los agentes de AWS SCT solo son necesarios para
determinadas situaciones de migración como, por ejemplo, entre orígenes y destinos heterogéneos.
Para obtener más información, consulte Uso de agentes de extracción de datos (p. 144).
3. Familiarizarse con la interfaz de usuario de AWS SCT. Para obtener más información, consulte Uso de
la interfaz de usuario de la Herramienta de conversión de esquemas de AWS (p. 12).
4. Cree un proyecto de AWS SCT. Conéctese a las bases de datos de origen y destino. Para obtener más
información acerca de la conexión a la base de datos de origen, consulte Bases de datos de origen para
Herramienta de conversión de esquemas de AWS (p. 31).
5. Ejecutar y consultar el informe de evaluación de la migración de la base de datos. Para obtener más
información sobre el informe de evaluación, consulte Crear y revisar el informe de evaluación de la
migración de la base de datos (p. 21).
6. Convertir los esquemas de base de datos de origen. Existen varios aspectos de la conversión que
debe tener en cuenta, por ejemplo, qué se debe hacer con los elementos que no se convierten y cómo
mapear los elementos que se deben convertir de una forma concreta. Para obtener más información
acerca de la conversión de un esquema de origen, consulte Convertir los esquemas de base de datos
utilizando el Herramienta de conversión de esquemas de AWS (p. 99).
Si va a convertir un esquema de almacenamiento de datos, también hay aspectos que debe tener
en cuenta antes de realizar la conversión. Para obtener más información, consulte Conversión de
esquemas de almacén de datos a Amazon Redshift utilizando la Herramienta de conversión de
esquemas de AWS (p. 114).
7. Aplicar la conversión de esquema al destino. Para obtener más información acerca de la aplicación
de la conversión de esquemas de origen, consulte Uso de la interfaz de usuario de la Herramienta de
conversión de esquemas de AWS (p. 12).
8. AWS SCT también se puede utilizar para convertir procedimientos almacenados de SQL y otro código
de aplicación. Para obtener más información, consulte Conversión de SQL de aplicación con la
Herramienta de conversión de esquemas de AWS (p. 190)
También puede utilizar AWS SCT para migrar los datos de una base de datos de origen a una base de
datos administrada por Amazon.
Version 1.0
30
Schema Conversion Tool de AWS Guía del usuario
Uso de Oracle como origen para Herramienta
de conversión de esquemas de AWS
Temas
• Uso de Oracle como origen para Herramienta de conversión de esquemas de AWS (p. 31)
• Uso de Microsoft SQL Server como origen para Herramienta de conversión de esquemas de
AWS (p. 45)
• Utilizar MySQL como origen para Herramienta de conversión de esquemas de AWS (p. 55)
• Utilizar PostgreSQL como origen para Herramienta de conversión de esquemas de AWS (p. 57)
• Uso de Db2 LUW como origen para Herramienta de conversión de esquemas de AWS (p. 60)
• Uso de Amazon Redshift como origen de Herramienta de conversión de esquemas de AWS (p. 65)
• Utilizar Oracle DW como origen para Herramienta de conversión de esquemas de AWS (p. 67)
• Utilizar Teradata como origen para Herramienta de conversión de esquemas de AWS (p. 70)
• Utilizar Netezza como origen para Herramienta de conversión de esquemas de AWS (p. 73)
• Utilizar Greenplum como origen para Herramienta de conversión de esquemas de AWS (p. 75)
• Utilizar Vertica como origen para Herramienta de conversión de esquemas de AWS (p. 77)
• Uso de Microsoft SQL Server DW como origen para Herramienta de conversión de esquemas de
AWS (p. 79)
Cuando el origen es una base de datos de Oracle, los comentarios pueden convertirse al formato
adecuado, por ejemplo, una base de datos PostgreSQL. AWS SCT puede convertir los comentarios en
Version 1.0
31
Schema Conversion Tool de AWS Guía del usuario
Permisos necesarios para Oracle como origen
tablas, vistas y columnas. Los comentarios pueden incluir apóstrofos; AWS SCT duplica los apóstrofos al
convertir instrucciones SQL, del mismo que con los literales de cadena.
Temas
• Permisos necesarios al usar Oracle como base de datos de origen (p. 32)
• Conexión a Oracle como base de datos de origen (p. 32)
• Conversión de Oracle a Amazon RDS for PostgreSQL o Amazon Aurora (PostgreSQL) (p. 35)
• Conversión de Oracle a Amazon RDS for MySQL o Amazon Aurora (MySQL) (p. 38)
• Conversión de Oracle a Amazon RDS for Oracle (p. 42)
• CONNECT
• SELECT_CATALOG_ROLE
• SELECT ANY DICTIONARY
• SELECT on SYS.USER$ TO <sct_user>
Version 1.0
32
Schema Conversion Tool de AWS Guía del usuario
Conexión a Oracle como origen
• SID
• Server name: el nombre DNS o la dirección IP de su servidor
de base de datos de origen.
• Server port: el puerto que utilice para conectarse al servidor
de su base de datos de origen.
• Oracle SID: el ID del sistema (SID) de Oracle. Para encontrar
el SID de Oracle, envíe la siguiente consulta a su base de
datos de Oracle:
SELECT sys_context('userenv','instance_name')
AS SID FROM dual;
• Nombre del servicio
• Server name: el nombre DNS o la dirección IP de su servidor
de base de datos de origen.
• Server port: el puerto que utilice para conectarse al servidor
de su base de datos de origen.
• Service Name: el nombre del servicio de Oracle al que
conectarse.
• TNS Alias
• TNS file path: la ruta al archivo que contiene la información
de conexión del nombre Transparent Network Substrate
(TNS).
• TNS file path: el alias TNS de este archivo que utilizar para
conectarse a la base de datos de origen.
Version 1.0
33
Schema Conversion Tool de AWS Guía del usuario
Conexión a Oracle como origen
Use SSL Seleccione esta opción si desea utilizar SSL para conectarse a
la base de datos. Proporcione la siguiente información adicional,
según proceda, en la pestaña SSL:
Version 1.0
34
Schema Conversion Tool de AWS Guía del usuario
Oracle a PostgreSQL
Oracle Driver Path Escriba la ruta al controlador que quiere usar para conectarse
a la base de datos de origen. Para obtener más información,
consulte Instalación de los controladores de bases de datos
necesarios (p. 8).
Temas
• Conversión de pseudocolumnas ROWID de Oracle a PostgreSQL (p. 36)
• Conversión de SQL dinámico para migraciones de Oracle a PostgreSQL. (p. 36)
• Conversión de particiones de Oracle a particiones de PostgreSQL versión 10 (p. 37)
Al convertir objetos del sistema de Oracle a PostgreSQL, AWS SCT convierte lo siguiente:
Una vez que AWS SCT migra los objetos del esquema y los datos almacenados, el flujo de trabajo de la
base de datos de origen se puede redireccionar al destino. En la mayoría de los casos, los flujos de trabajo
son números únicos generados por secuencias de bases de datos para mantener las restricciones de
integridad, como las claves principales y las claves únicas de los datos escritos en la base de datos de
destino. Esto significa que los valores nuevos de una secuencia migrada y los valores generados antes de
la migración no deben superponerse.
En los proyectos de migración de Oracle a PostgreSQL, puede asegurarse de que no se superponen. Para
ello, seleccione la opción Populate converted sequences with the last values generated on the source side
(Rellenar las secuencias convertidas con los últimos valores generados en el origen) en la pestaña de
ajustes de conversión de Project Settings (Configuración del proyecto).
Version 1.0
35
Schema Conversion Tool de AWS Guía del usuario
Oracle a PostgreSQL
Cuando AWS SCT convierte la pseudocolumna ROWID, crea una columna de datos con el tipo de datos
BIGINT. Si no hay una clave primaria, AWS SCT establece la columna ROWID como la clave principal. Si
hay una clave primaria, AWS SCT establece la columna ROWID con una restricción única.
Para crear una columna de datos para la pseudocolumna ROWID de Oracle en un proyecto
Version 1.0
36
Schema Conversion Tool de AWS Guía del usuario
Oracle a PostgreSQL
Todas las filas insertadas en una tabla particionada se direccionan a una de las particiones en función
del valor de la clave de partición. Cada partición tiene un subconjunto de datos definido por sus límites de
partición. En la actualidad, los métodos de particionamiento admitidos son los métodos de rango y lista. En
el particionamiento por rango, cada partición se asigna a un rango de claves. En el particionamiento por
lista, cada partición se asigna a una lista de claves.
Cuando AWS SCT convierte un esquema de una base de datos de Oracle en una base de datos de
PostgreSQL, puede emular particiones y subparticiones. Una subpartición de Oracle se convierte en una
partición PostgreSQL que tiene una tabla como expresión de rango principal. La tabla se particiona con
arreglo a la expresión de rango a partir de la subpartición de Oracle.
• Rango
• List
Version 1.0
37
Schema Conversion Tool de AWS Guía del usuario
De Oracle a MySQL
• Rango-rango
• Lista-lista
• Rango-lista
• Lista-rango
• TIMESTAMP sin zona horaria
• Hash
• Rango-hash
• Lista-hash
• Intervalo
• Referencia
• Fallo en
• Solo las columnas que no son null se pueden particionar por columnas.
• DEFAULT no es un valor de partición posible.
• No se admiten las particiones basadas en TIMESTAMP con zona horaria.
• No se admiten las particiones basadas en una función hash.
• Las columnas de las tablas particionadas no se pueden actualizar porque, al actualizar un valor,
ese valor podría ir a otra partición. AWS SCT solo permite eliminar e insertar columnas en las tablas
particionadas.
• No se permite que las claves tengan como origen o destino tablas particionadas.
• Para cambiar el orden en el que se ejecutan las instrucciones, se puede utilizar una instrucción GOTO
y una etiqueta. Todas las instrucciones PL/SQL que van detrás de una instrucción GOTO se omiten y
el procesamiento continúa en la etiqueta. Las instrucciones GOTO y las etiquetas se pueden utilizar en
cualquier lugar de un procedimiento, lote o bloque de instrucciones. Las instrucciones GOTO también se
pueden anidar.
MySQL no utiliza instrucciones GOTO. Cuando AWS SCT convierte un código que contiene una
instrucción GOTO, convierte esta instrucción para que utilizar en su lugar una instrucción BEGIN...END o
LOOP...END LOOP. En la tabla siguiente, puede ver algunos ejemplos de cómo AWS SCT convierte las
instrucciones GOTO.
BEGIN BEGIN
.... label1:
statement1; BEGIN
Version 1.0
38
Schema Conversion Tool de AWS Guía del usuario
De Oracle a MySQL
BEGIN BEGIN
.... ....
statement1; statement1;
.... ....
label1: label1:
statement2; LOOP
.... statement2;
GOTO label1; ....
statement3; ITERATE label1;
.... LEAVE label1;
statement4; END LOOP;
.... statement3;
END ....
statement4;
....
END
BEGIN BEGIN
.... ....
statement1; statement1;
.... ....
label1: label1:
statement2; BEGIN
.... statement2;
statement3; ....
.... statement3;
statement4; ....
.... statement4;
END ....
END;
END
La ventaja de convertir la cláusula en una tabla temporal es que las referencias reiteradas a la subquery
pueden ser más eficientes, pues los datos se recuperan fácilmente en la tabla temporal en lugar de que
cada referencia los solicite. Para emular este comportamiento, puede usar más vistas o una tabla temporal.
El nombre de la vista tiene el formato siguiente: <procedure_name>$<subselect_alias>.
Version 1.0
39
Schema Conversion Tool de AWS Guía del usuario
De Oracle a MySQL
BEGIN
END;
END LOOP;
CLOSE cur;
END;
Version 1.0
40
Schema Conversion Tool de AWS Guía del usuario
De Oracle a MySQL
TEST_ORA_PG.`P_WITH_SELECT_REGULAR_MULT_01$dept
` AS dept
WHERE dept_empl.DEPT_ID =
dept.DEPTID;
DECLARE CONTINUE HANDLER FOR NOT FOUND
SET done := TRUE;
OPEN cur;
read_label:
LOOP
FETCH cur INTO var$ID, var$NAME, var
$SURNAME,
var$LASTNAME, var$STATE, var$DEPT_ID,
var$deptid,
var$PARENT_ID, var$deptname;
IF done THEN
LEAVE read_label;
END IF;
BEGIN
END;
END LOOP;
CLOSE cur;
END;
call
test_ora_pg.P_WITH_SELECT_REGULAR_MULT_01()
Version 1.0
41
Schema Conversion Tool de AWS Guía del usuario
De Oracle a Amazon RDS Oracle
read_label:
LOOP
FETCH cur INTO var$ID;
IF done THEN
LEAVE read_label;
END IF;
BEGIN
END;
END LOOP;
CLOSE cur;
END;
• AWS SCT puede añadir objetos de directorio en el árbol de objetos. Los objetos de directorio son
estructuras lógicas, cada una de las cuales representa un directorio físico del sistema de archivos
Version 1.0
42
Schema Conversion Tool de AWS Guía del usuario
De Oracle a Amazon RDS Oracle
del servidor. Puede utilizar objetos de directorio con paquetes como DBMS_LOB, UTL_FILE,
DBMS_FILE_TRANSFER, la utilidad DATAPUMP, etc.
• AWS SCT permite convertir espacios de tabla de Oracle en una instancia de base de datos de Amazon
RDS for Oracle. Oracle almacena los datos de forma lógica en espacios de tabla y físicamente en
archivos de datos asociados con el espacio de tabla correspondiente. En Oracle, se puede crear un
espacio de tabla con los nombres de los archivos de datos. Amazon RDS solamente permite usar
archivos administrados por Oracle (OMF) con archivos de datos, archivos log y archivos de control. AWS
SCT crea los archivos de datos necesarios durante la conversión.
• AWS SCT puede convertir funciones y privilegios del nivel del servidor. El motor de base de datos
Oracle utiliza la seguridad basada en roles. Una función es un conjunto de privilegios que se pueden
conceder a un usuario o que se pueden revocar. Una función predefinida de Amazon RDS llamada DBA
normalmente admite todos los privilegios administrativos de un motor de base de datos de Oracle. Los
privilegios que se indican a continuación no están disponibles en la función DBA de las instancias de
base de datos de Amazon RDS que utilizan el motor de Oracle:
• Alter database
• Alter system
• Create any directory
• Grant any privilege
• Grant any role
• Create external job
Puede conceder todos los demás privilegios a una función de usuario de Amazon RDS for Oracle,
incluidos los de filtrado avanzado y de columnas.
• AWS SCT admite la conversión de trabajos de Oracle en trabajos que pueden ejecutarse en Amazon
RDS for Oracle. Existen algunas limitaciones en la conversión, entre las que se incluyen las siguientes:
• No se admiten los trabajos ejecutables.
• No se admiten los trabajos de programación que usan el tipo de datos ANYDATA como un argumento.
• Oracle Real Application Clusters (RAC) One Node es una opción de Oracle Database Enterprise Edition
que se introdujo con Oracle Database 11g versión 2. Amazon RDS for Oracle no admite la característica
RAC. Para obtener una alta disponibilidad, utilice Multi-AZ de Amazon RDS.
En una implementación Multi-AZ, Amazon RDS aprovisiona y mantiene automáticamente una réplica en
espera sincrónica dentro de una zona de disponibilidad diferente. La instancia de base de datos principal
se replica sincrónicamente en las zonas de disponibilidad en una réplica en espera. Esta funcionalidad
proporciona redundancia de datos, elimina los bloqueos de E/S y minimiza los picos de latencia durante
los backups del sistema.
• Oracle Spatial proporciona un esquema y funciones SQL que facilitan el almacenamiento, la
recuperación, la actualización y la consulta de colecciones de datos espaciales en una base de datos
de Oracle. Oracle Locator proporciona capacidades que suelen ser necesarias para admitir aplicaciones
basadas en servicio de Internet e inalámbricas y soluciones de Sistemas de información geográfica (SIG)
basadas en el partner. Oracle Locator es una subred limitada de Oracle Spatial.
Para utilizar las características de Oracle Spatial u Oracle Locator, debe agregar la opción SPATIAL o la
opción LOCATOR (mutuamente excluyentes) al grupo de opciones de la instancia de base de datos.
Existen algunas requisitos previos que debe cumplir para poder usar Oracle Spatial u Oracle Locator en
una instancia de base de datos de Amazon RDS for Oracle:
• La instancia debe usar Oracle Enterprise Edition versión 12.1.0.2.v6 o posterior o la versión
11.2.0.4.v10 o posterior.
• La instancia debe estar dentro de una nube virtual privada (VPC).
• La instancia debe usar la clase de instancia de base de datos que es compatible con la característica
de Oracle. Por ejemplo, Oracle Spatial no se admite para las clases de instancia de base de
datos db.m1.small, db.t1.micro, db.t2.micro o db.t2.small. Para obtener más información, consulte
Compatibilidad de Oracle con las clases de instancias de bases de datos.
Version 1.0
43
Schema Conversion Tool de AWS Guía del usuario
De Oracle a Amazon RDS Oracle
• La instancia debe tener habilitada la opción Auto Minor Version Upgrade (Actualización automática
de versiones menores). Amazon RDS actualiza automáticamente su instancia de base de datos a
la versión más reciente de Oracle PSU si hay vulnerabilidades de seguridad con una puntuación de
CVSS superior a 9 u otras vulnerabilidades de seguridad anunciadas. Para obtener más información,
consulte
Oracle XML DB .
• Debe tener una licencia de Oracle Spatial de Oracle. Para obtener más información, consulte Oracle
Spatial and Graph en la documentación de Oracle.
• Data Guard se incluye con Oracle Database Enterprise Edition. Para obtener una alta disponibilidad,
utilice la característica Multi-AZ de Amazon RDS.
En una implementación Multi-AZ, Amazon RDS aprovisiona y mantiene automáticamente una réplica en
espera sincrónica dentro de una zona de disponibilidad diferente. La instancia de base de datos principal
se replica sincrónicamente en las zonas de disponibilidad en una réplica en espera. Esta funcionalidad
proporciona redundancia de datos, elimina los bloqueos de E/S y minimiza los picos de latencia durante
los backups del sistema.
• AWS SCT permite convertir objetos de Oracle DBMS_SCHEDULER al migrar a Amazon RDS for Oracle.
El informe de evaluación de AWS SCT indica si un objeto de programación se puede convertir. Para
obtener más información acerca del uso de objetos de programación con Amazon RDS, consulte la
documentación de Amazon RDS.
• En el caso de conversiones de Oracle a Amazon RDS for Oracle, se admiten los enlaces de base de
datos. Un enlace de base de datos es un objeto de esquema en una base de datos que le permite
obtener acceso a los objetos de otra base de datos. No es necesario que la otra base de datos sea de
Oracle. Sin embargo, para obtener acceso a las bases de datos que no son de Oracle, debe utilizar
Oracle Heterogeneous Services.
Una vez creado un enlace de base de datos, puede utilizar el enlace en instrucciones SQL para hacer
referencia a tablas, vistas y objetos PL/SQL en la otra base de datos. Para utilizar un enlace de base de
datos, añada @dblink al nombre de tabla, vista u objeto PL/SQL. Puede consultar una tabla o una vista
de la otra base de datos con la instrucción SELECT. Para obtener más información acerca del uso de
enlaces de base de datos de Oracle, consulte la documentación de Oracle.
Para obtener más información acerca del uso de enlaces de base de datos con Amazon RDS, consulte
la documentación de Amazon RDS.
• El informe de evaluación de AWS SCT proporciona métricas de servidor para la conversión. Estas
métricas acerca de la instancia de Oracle incluyen:
• Capacidad de memoria y computación de la instancia de base de datos de destino.
• Características de Oracle, como Unified Auditing y Real Application Clusters no compatibles que
Amazon RDS no admite.
• Carga de lectura-escritura en disco.
• Rendimiento de disco medio total
• Información del servidor, como nombre de servidor, sistema operativo, alojamiento, nombre y conjunto
de caracteres.
• Una función predefinida de Amazon RDS llamada DBA normalmente admite todos los privilegios
administrativos de un motor de base de datos de Oracle. Los privilegios que se indican a continuación no
están disponibles en la función DBA de las instancias de base de datos de Amazon RDS que utilizan el
motor de Oracle:
• Alter database
• Alter system
• Create any directory
• Grant any privilege
• Grant any role
• Create external job
Todos los demás privilegios se pueden conceder a una función de usuario de Oracle RDS.
• Amazon RDS para Oracle no admite Oracle Unified Auditing. Amazon RDS for Oracle admite las
auditorías tradicionales y detalladas mediante el paquete DBMS_FGA.
• Amazon RDS for Oracle no admite la captura de datos de cambios (CDC). Para realizar la captura
de datos de cambios durante y después de la migración de una base de datos, use AWS Database
Migration Service.
Temas
• Permisos necesarios al usar Microsoft SQL Server como origen (p. 45)
• Uso de la autenticación de Windows al utilizar Microsoft SQL Server como origen (p. 46)
• Conexión a SQL Server como origen (p. 47)
• Conversión de SQL Server a MySQL (p. 49)
• Conversión de SQL Server PostgreSQL (p. 50)
• Conversión de SQL Server a Amazon RDS for SQL Server (p. 54)
• VIEW DEFINITION
• VIEW DATABASE STATE
Version 1.0
45
Schema Conversion Tool de AWS Guía del usuario
Origen: autenticación de Windows con Microsoft SQL Server
Repita la concesión para cada base de datos cuyo esquema vaya a convertir.
SQL Server tiene dos modos de acceso: autenticación de Windows y mixto. El modo de autenticación
de Windows habilita dicha autenticación y deshabilita la de SQL Server. El modo mixto habilita tanto la
autenticación de Windows como la de SQL Server. La autenticación de Windows siempre está disponible y
no se puede deshabilitar. Para obtener más información acerca de la autenticación de Windows, consulte
la documentación de Microsoft Windows.
USE [TEST_DB]
CREATE USER [TestUser] FOR LOGIN [TestDomain\TestUser]
GRANT VIEW DEFINITION TO [TestUser]
GRANT VIEW DATABASE STATE TO [TestUser]
<directorio de instalación>\sqljdbc_<versión>\<idioma>\auth\
Cuando intenta establecer una conexión a una base de datos de SQL Server con la autenticación de
Windows, podría aparecer un error que indica que el controlador no está configurado para la autenticación
integrada. Este problema se puede resolver con las siguientes acciones:
Version 1.0
46
Schema Conversion Tool de AWS Guía del usuario
Conexión a SQL Server como origen
[JDK_INSTALLED_PATH]\bin;
[JDK_INSTALLED_PATH]\jre\bin;
[JDK_INSTALLED_PATH]\jre\lib;
[JDK_INSTALLED_PATH]\lib;
• Asegúrese de que en la carpeta de bibliotecas jdbc solo tiene SQLJDBC4.jar. Quite los demás archivos
sqljdbc*.jar de esa carpeta (o cópielos en otra). Si va a agregar el controlador como parte de su
programa, asegúrese de que agregar solo SQLJDBC4.jar como el controlador que se utilizará.
• Copie el archivo sqljdbc_auth.dll en la carpeta con su aplicación.
Note
Si ejecuta una máquina virtual de Java (JVM) de 32 bits, utilice el archivo sqljdbc_auth.dll de la
carpeta x86, incluso si la versión del sistema operativo es x64. Si ejecuta una JVM de 64 bits en
un procesador x64, utilice el archivo sqljdbc_auth.dll de la carpeta x64.
Al conectarse a una base de datos de SQL Server, puede elegir Windows Authentication (Autenticación
de Windows) o SQL Server Authentication (Autenticación de SQL Server) en la opción Authentication
(Autenticación).
Version 1.0
47
Schema Conversion Tool de AWS Guía del usuario
Conexión a SQL Server como origen
2. Proporcione la información de conexión a la base de datos de Microsoft SQL Server de origen. Utilice
las instrucciones de la siguiente tabla.
Version 1.0
48
Schema Conversion Tool de AWS Guía del usuario
De SQL Server a MySQL
Sql Server Driver Path Escriba la ruta al controlador que quiere usar para conectarse
a la base de datos de origen. Para obtener más información,
consulte Instalación de los controladores de bases de datos
necesarios (p. 8).
• MySQL no admite la instrucción MERGE. Sin embargo, AWS SCT puede emular la instrucción MERGE
durante la conversión a través de la cláusula INSERT ON DUPLICATE KEY y las instrucciones UPDATE
FROM y DELETE FROM.
Para conseguir una emulación correcta con INSERT ON DUPLICATE KEY, asegúrese de que existe una
restricción o una clave principal únicas en la base de datos MySQL de destino.
• Para cambiar el orden en el que se ejecutan las instrucciones, se puede utilizar una instrucción GOTO y
una etiqueta. Todas las instrucciones Transact-SQL que van detrás de una instrucción GOTO se omiten
y el procesamiento continúa en la etiqueta. Las instrucciones GOTO y las etiquetas se pueden utilizar en
cualquier lugar de un procedimiento, lote o bloque de instrucciones. Las instrucciones GOTO también se
pueden anidar.
MySQL no utiliza instrucciones GOTO. Cuando AWS SCT convierte un código que contiene una
instrucción GOTO, convierte esta instrucción para que utilizar en su lugar una instrucción BEGIN...END o
LOOP...END LOOP. En la tabla siguiente, puede ver algunos ejemplos de cómo AWS SCT convierte las
instrucciones GOTO.
BEGIN BEGIN
.... label1:
statement1; BEGIN
Version 1.0
49
Schema Conversion Tool de AWS Guía del usuario
De SQL Server a PostgreSQL
BEGIN BEGIN
.... ....
statement1; statement1;
.... ....
label1: label1:
statement2; LOOP
.... statement2;
GOTO label1; ....
statement3; ITERATE label1;
.... LEAVE label1;
statement4; END LOOP;
.... statement3;
END ....
statement4;
....
END
BEGIN BEGIN
.... ....
statement1; statement1;
.... ....
label1: label1:
statement2; BEGIN
.... statement2;
statement3; ....
.... statement3;
statement4; ....
.... statement4;
END ....
END;
END
• MySQL no admite funciones con valores de tabla compuestas de varias instrucciones. AWS SCT simula
las funciones con valores de tabla durante una conversión creando tablas temporales y reescribiendo
instrucciones para utilizar estas tablas temporales.
• En PostgreSQL, todos los nombres de objeto de un esquema deben ser único, incluidos los índices. Los
nombres de los índices deben ser únicos en el esquema de la tabla base. En SQL Server, un nombre de
índice puede ser igual en diferentes tablas.
Para garantizar la exclusividad de los índices, AWS SCT brinda la opción de generar nombres de índice
únicos si dichos nombres de índice no lo son. Para ello, seleccione la opción Generate unique index
Version 1.0
50
Schema Conversion Tool de AWS Guía del usuario
De SQL Server a PostgreSQL
names (Generar nombres de índice únicos) en las propiedades del proyecto. Esta opción está habilitada
de forma predeterminada. Si esta opción está habilitada, se crean nombres de índice único con el
formato IX_nombre_tabla_nombre_índice. Si esta opción está deshabilitada, los nombres de índice no se
modifican.
• Para cambiar el orden en el que se ejecutan las instrucciones, se puede utilizar una instrucción GOTO y
una etiqueta. Todas las instrucciones Transact-SQL que van detrás de una instrucción GOTO se omiten
y el procesamiento continúa en la etiqueta. Las instrucciones GOTO y las etiquetas se pueden utilizar en
cualquier lugar de un procedimiento, lote o bloque de instrucciones. Las instrucciones GOTO también se
pueden anidar.
PostgreSQL no utiliza instrucciones GOTO. Cuando AWS SCT convierte un código que contiene una
instrucción GOTO, convierte esta instrucción para que utilizar en su lugar una instrucción BEGIN...END o
LOOP...END LOOP. En la tabla siguiente, puede ver algunos ejemplos de cómo AWS SCT convierte las
instrucciones GOTO.
BEGIN BEGIN
.... label1:
statement1; BEGIN
.... ....
GOTO label1; statement1;
statement2; ....
.... EXIT label1;
label1: statement2;
Statement3; ....
.... END;
END Statement3;
....
END
BEGIN BEGIN
.... ....
statement1; statement1;
.... ....
label1: label1:
statement2; LOOP
.... statement2;
GOTO label1; ....
statement3; CONTINUE label1;
.... EXIT label1;
statement4; END LOOP;
.... statement3;
END ....
statement4;
....
END
BEGIN BEGIN
.... ....
statement1; statement1;
.... ....
label1: label1:
statement2; BEGIN
.... statement2;
statement3; ....
.... statement3;
statement4; ....
Version 1.0
51
Schema Conversion Tool de AWS Guía del usuario
De SQL Server a PostgreSQL
• PostgreSQL no admite la instrucción MERGE. AWS SCT emula el comportamiento de una instrucción
MERGE de las siguientes formas:
• Mediante la construcción INSERT ON CONFLICT.
• Mediante la instrucción UPDATE FROM DML, como MERGE sin la cláusula WHEN NOT MATCHED.
• Mediante el uso de CURSOR, como con una cláusula MERGE con DELETE o mediante el uso de una
instrucción de condición compleja MERGE ON.
• AWS SCT puede añadir disparadores de bases de datos al árbol de objetos cuando el destino es
Amazon RDS.
• AWS SCT puede añadir disparadores de nivel de servidor al árbol de objetos cuando el destino es
Amazon RDS.
• AWS SCT puede añadir servidores enlazados al árbol de objetos cuando el destino es Amazon RDS.
• Al migrar desde Microsoft SQL Server a PostgreSQL, la función SUSER_SNAME integrada se convierte
tal y como se indica a continuación:
• SUSER_SNAME: devuelve el nombre de inicio de sesión asociado a un número de identificación de
seguridad (SID).
• SUSER_SNAME(<sid_usuario_servidor>): no admitido.
• SUSER_SNAME() CURRENT_USER: devuelve el nombre de usuario del contexto de ejecución actual.
• SUSER_SNAME (NULL): devuelve NULL.
• Se permite la conversión de funciones con valores de tabla. Las funciones con valores de tabla
devuelven una tabla y pueden tomar el lugar de una tabla en una consulta.
• PATINDEX devuelve la posición inicial de la primera coincidencia de un patrón en una expresión
especificada, o ceros si no se encuentra el patrón, en todos los tipos de datos de texto y caracteres
válidos. Al convertir de SQL Server a Amazon RDS for PostgreSQL, AWS SCT reemplaza el código
de aplicación que usa PATINDEX por aws_sqlserver_ext.patindex<carácter de patrón>, <carácter de
expresión variable>).
• En SQL Server, un tipo de tabla definido por el usuario es un tipo que representa la definición de
la estructura de una tabla. Puede utilizar un tipo de tabla definido por el usuario para declarar los
parámetros de tabla-valor en funciones o procedimientos almacenados o bien para declarar las variables
de tabla que se desea utilizar en un lote o en el cuerpo de una función o procedimiento almacenado.
AWS SCT emula este tipo en PostgreSQL creando una tabla temporal.
Al convertir de SQL Server a PostgreSQL, AWS SCT convierte los objetos de sistema de SQL Server en
objetos reconocibles en PostgreSQL. En la siguiente tabla se muestra cómo se convierten los objetos del
sistema.
SYS.SCHEMAS AWS_SQLSERVER_EXT.SYS_SCHEMAS
SYS.TABLES AWS_SQLSERVER_EXT.SYS_TABLES
SYS.VIEWS AWS_SQLSERVER_EXT.SYS_VIEWS
SYS.ALL_VIEWS AWS_SQLSERVER_EXT.SYS_ALL_VIEWS
SYS.TYPES AWS_SQLSERVER_EXT.SYS_TYPES
Version 1.0
52
Schema Conversion Tool de AWS Guía del usuario
De SQL Server a PostgreSQL
SYS.COLUMNS AWS_SQLSERVER_EXT.SYS_COLUMNS
SYS.ALL_COLUMNS AWS_SQLSERVER_EXT.SYS_ALL_COLUMNS
SYS.FOREIGN_KEYS AWS_SQLSERVER_EXT.SYS_FOREIGN_KEYS
SYS.SYSFOREIGNKEYS AWS_SQLSERVER_EXT.SYS_SYSFOREIGNKEYS
SYS.FOREIGN_KEY_COLUMNS
AWS_SQLSERVER_EXT.SYS_FOREIGN_KEY_COLUMNS
SYS.KEY_CONSTRAINTS AWS_SQLSERVER_EXT.SYS_KEY_CONSTRAINTS
SYS.IDENTITY_COLUMNS AWS_SQLSERVER_EXT.SYS_IDENTITY_COLUMNS
SYS.PROCEDURES AWS_SQLSERVER_EXT.SYS_PROCEDURES
SYS.INDEXES AWS_SQLSERVER_EXT.SYS_INDEXES
SYS.SYSINDEXES AWS_SQLSERVER_EXT.SYS_SYSINDEXES
SYS.OBJECTS AWS_SQLSERVER_EXT.SYS_OBJECTS
SYS.ALL_OBJECTS AWS_SQLSERVER_EXT.SYS_ALL_OBJECTS
SYS.SYSOBJECTS AWS_SQLSERVER_EXT.SYS_SYSOBJECTS
SYS.SQL_MODULES AWS_SQLSERVER_EXT.SYS_SQL_MODULES
SYS.DATABASES AWS_SQLSERVER_EXT.SYS_DATABASES
INFORMATION_SCHEMA.SCHEMATA
AWS_SQLSERVER_EXT.INFORMATION_SCHEMA_SCHEMATA
INFORMATION_SCHEMA.VIEWS
AWS_SQLSERVER_EXT.INFORMATION_SCHEMA_VIEWS
INFORMATION_SCHEMA.TABLES
AWS_SQLSERVER_EXT.INFORMATION_SCHEMA_TABLES
INFORMATION_SCHEMA.COLUMNS
AWS_SQLSERVER_EXT.INFORMATION_SCHEMA_COLUMNS
INFORMATION_SCHEMA.CHECK_CONSTRAINTS
AWS_SQLSERVER_EXT.INFORMATION_SCHEMA_CHECK_CONSTRAINTS
INFORMATION_SCHEMA.REFERENTIAL_CONSTRAINTS
AWS_SQLSERVER_EXT.INFORMATION_SCHEMA_REFERENTIAL_CONSTRAINTS
INFORMATION_SCHEMA.TABLE_CONSTRAINTS
AWS_SQLSERVER_EXT.INFORMATION_SCHEMA_TABLE_CONSTRAINTS
INFORMATION_SCHEMA.KEY_COLUMN_USAGE
AWS_SQLSERVER_EXT.INFORMATION_SCHEMA_KEY_COLUMN_USAGE
INFORMATION_SCHEMA.CONSTRAINT_TABLE_USAGE
AWS_SQLSERVER_EXT.INFORMATION_SCHEMA_CONSTRAINT_TABLE_USAGE
INFORMATION_SCHEMA.CONSTRAINT_COLUMN_USAGE
AWS_SQLSERVER_EXT.INFORMATION_SCHEMA_CONSTRAINT_COLUMN_USAGE
INFORMATION_SCHEMA.ROUTINES
AWS_SQLSERVER_EXT.INFORMATION_SCHEMA_ROUTINES
SYS.SYSPROCESSES AWS_SQLSERVER_EXT.SYS_SYSPROCESSES
sys.system_objects AWS_SQLSERVER_EXT.SYS_SYSTEM_OBJECTS
Version 1.0
53
Schema Conversion Tool de AWS Guía del usuario
De SQL Server a Amazon RDS for SQL Server
• SQL Server le permite particionar una tabla utilizando una columna sin la restricción NOT NULL. En
ese caso, todos los valores NULL van a la partición situada más a la izquierda. PostgreSQL no admite
valores NULL con particiones RANGE.
• SQL Server le permite crear claves principales y claves únicas para tablas particionadas. En el caso
de PostgreSQL, las claves primarias y las claves únicas se crean directamente para cada partición.
Por tanto, la restricción PRIMARY o UNIQUE KEY debe eliminarse de la tabla principal al migrar a
PostgreSQL. Los nombres de clave resultantes tienen el formato
<original_key_name>_<partition_number>.
• SQL Server permite crear restricciones de clave externa que tienen como origen o destino tablas
particionadas. PostgreSQL no admite las claves externas que hacen referencia a tablas particionadas.
Además, PostgreSQL tampoco admite las referencias de clave externa entre una tabla particionada y
otra tabla.
• SQL Server permite crear índices para las tablas particionadas. En PostgreSQL, los índices
deben crearse directamente con cada partición. Por lo tanto, los índices deben eliminarse de sus
tablas principales al migrar a PostgreSQL. Los nombres de índice resultantes tienen el formato
<original_index_name>_<partition_number>.
• PostgreSQL no admite índices particionados.
• AWS SCT puede convertir el agente de SQL Server para que proporcione programaciones, alertas
y trabajos en una instancia de base de datos de Amazon RDS for SQL Server. Una vez realizada la
conversión, la instancia de base de datos de Amazon RDS for SQL Server puede utilizarse como origen
de datos de SQL Server Reporting Services (SSRS), SQL Server Analysis Services (SSAS) y SQL
Server Integration Services (SSIS). Estos servicios no se pueden ejecutar en la instancia de base de
datos.
• Actualmente, Amazon RDS no admite SQL Server Service Broker ni puntos de enlace de T-SQL
adicionales que requieran ejecutar el comando CREATE ENDPOINT.
• Amazon RDS tiene una compatibilidad limitada con los servidores enlazados. Al convertir el código de
aplicación de SQL Server que utiliza servidores enlazados, AWS SCT convierte el código de aplicación,
pero debe revisar el comportamiento de los objetos que utilizan servidores de enlace antes de ejecutar el
código convertido.
• El informe de evaluación de AWS SCT proporciona métricas de servidor para la conversión. Estas
métricas acerca de la instancia de SQL Server incluyen:
• Uso de la replicación de datos.
• Configuración de Trasvase de registros de SQL Server.
• Uso de AlwaysON. Amazon RDS no admite AlwaysOn.
• Uso de un clúster de conmutación por error.
Version 1.0
54
Schema Conversion Tool de AWS Guía del usuario
Utilizar MySQL como origen para Herramienta
de conversión de esquemas de AWS
• Configuración de Correo electrónico de base de datos. Amazon RDS no admite Correo electrónico de
base de datos.
• Uso de Servicio SQL Server Reporting Services (SSRS). Amazon RDS no admite SSRS. Por
consiguiente, recomendamos instalar SQL Server en una instancia Amazon EC2.
• Uso de SQL Server Analysis Services (SSAS). Amazon RDS no admite SSAS. Por consiguiente,
recomendamos instalar SQL Server en una instancia Amazon EC2.
• Uso de SQL Server Integration Services (SSIS). Amazon RDS no admite SSIS. Por consiguiente,
recomendamos instalar SQL Server en una instancia Amazon EC2.
• Uso de Servicio de búsqueda de texto completo. La búsqueda de texto completo en Amazon RDS
para SQL Server es limitada y no admite la búsqueda semántica.
• Instalación de Data Quality Services (DQS). Amazon RDS no admite DQS. Por consiguiente,
recomendamos instalar SQL Server en una instancia Amazon EC2.
Temas
• Privilegios para MySQL como base de datos de origen (p. 55)
• Conexión a MySQL como base de datos de origen (p. 55)
• SELECT ON *.*
• SELECT ON mysql.proc
• SHOW VIEW ON *.*
Version 1.0
55
Schema Conversion Tool de AWS Guía del usuario
Conexión a MySQL como origen
Use SSL Seleccione esta opción si desea utilizar SSL para conectarse a
la base de datos. Proporcione la siguiente información adicional,
según proceda, en la pestaña SSL:
Version 1.0
56
Schema Conversion Tool de AWS Guía del usuario
Utilizar PostgreSQL como origen para
Herramienta de conversión de esquemas de AWS
MySql Driver Path Escriba la ruta al controlador que quiere usar para conectarse
a la base de datos de origen. Para obtener más información,
consulte Instalación de los controladores de bases de datos
necesarios (p. 8).
Temas
Version 1.0
57
Schema Conversion Tool de AWS Guía del usuario
Fuente: PostgreSQL
Version 1.0
58
Schema Conversion Tool de AWS Guía del usuario
Conexión a PostgreSQL como origen
Use SSL Seleccione esta opción si desea utilizar SSL para conectarse a
la base de datos. Proporcione la siguiente información adicional,
según proceda, en la pestaña SSL:
PostgreSQL Driver Path Escriba la ruta al controlador que quiere usar para conectarse
a la base de datos de origen. Para obtener más información,
consulte Instalación de los controladores de bases de datos
necesarios (p. 8).
3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datos
de origen.
4. Seleccione OK para conectarse a su base de datos de origen.
Version 1.0
59
Schema Conversion Tool de AWS Guía del usuario
Uso de Db2 LUW como origen para Herramienta
de conversión de esquemas de AWS
Para ejecutar consultas, debe crear un espacio de tabla temporal del sistema con un tamaño de página 8
K, 16 K y 32 K, si no existen. Para crear los espacios de tabla temporales, ejecute los siguientes scripts:
2. Proporcione la información de conexión de la base de datos de Db2 LUW de origen. Utilice las
instrucciones de la siguiente tabla.
Version 1.0
62
Schema Conversion Tool de AWS Guía del usuario
Conexión a Db2 LUW como origen
Use SSL Seleccione esta opción si desea utilizar SSL para conectarse a
la base de datos. Proporcione la siguiente información adicional,
según proceda, en la pestaña SSL:
DB2 LUW Driver Path (Ruta de Escriba la ruta al controlador que quiere usar para conectarse
controladores de DB2 LUW) a la base de datos de origen. Para obtener más información,
consulte Instalación de los controladores de bases de datos
necesarios (p. 8).
3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datos
de origen.
4. Seleccione OK para conectarse a su base de datos de origen.
Version 1.0
63
Schema Conversion Tool de AWS Guía del usuario
De DB2LUW a PostgreSQL
• AWS SCT puede convertir varias instrucciones de activación que se utilizan con Db2 LUW. Entre estas
instrucciones de activación se incluyen las siguientes:
• Eventos de activación: los eventos de activación INSERT, DELETE y UPDATE especifican que
la acción activada debe ejecutarse siempre que el evento se aplica a la tabla o vista de asuntos.
Se puede especificar cualquier combinación de los eventos INSERT, DELETE y UPDATE, pero
cada evento solamente puede especificarse una vez. AWS SCT permite utilizar tanto uno como
varios eventos de activación. En el caso de los eventos, PostgreSQL tiene prácticamente la misma
funcionalidad.
• Evento OF COLUMN: se puede especificar un nombre de columna desde una tabla base. El
disparador se activa únicamente cuando se actualiza una columna que aparece en la lista de nombres
de columnas. PostgreSQL tiene la misma funcionalidad.
• Disparadores de instrucciones: estos disparadores indican que la acción se aplica una sola vez en
toda la instrucción. Este tipo de granularidad no se puede especificar con los disparadores BEFORE
o INSTEAD OF. Si se especifica, se activará un disparador UPDATE o DELETE aunque no haya
ninguna fila afectada. PostgreSQL también cuenta con esta funcionalidad y la declaración de los
disparadores de instrucciones es idéntica en PostgreSQL y Db2 LUW.
• Cláusulas de referencia: estas cláusulas especifican los nombres de correlación de las variables de
transición y los nombres de las tablas de transición. Los nombres de correlación identifican una fila
concreta del conjunto de filas afectadas por la operación SQL de activación. Los nombres de las tablas
identifican el conjunto completo de filas afectadas. Cada una de las filas afectadas por una operación
SQL de activación está disponible para la acción activada al asignar a las columnas los nombres
de correlación especificados. PostgreSQL no admite esta funcionalidad y solo utiliza el nombre de
correlación NEW u OLD.
• AWS SCT admite los disparadores INSTEAD OF.
• Puede crear una tabla particionada con una columna que admita valores null en Db2 LUW y puede
especificar una partición para almacenar los valores NULL. Sin embargo, PostgreSQL no admite valores
NULL con particiones RANGE.
• Db2 LUW puede utilizar una cláusula INCLUSIVE o EXCLUSIVE para establecer los valores límite del
intervalo. PostgreSQL solo admite INCLUSIVE para el límite inicial y EXCLUSIVE para el límite final. El
nombre de la partición convertida tiene el formato <nombre_tabla_original>_<nombre_partición_original>.
• Puede crear claves principales o únicas para tablas particionadas de Db2 LUW. PostgreSQL requiere
que se creen claves primarias o únicas para cada partición directamente. Las restricciones de claves
principales o únicas deben eliminarse de la tabla principal. El nombre de la clave convertida tiene el
formato <nombre_clave_original>_<nombre_partición_original>.
• Puede crear una restricción de clave externa que tenga como origen o destino una tabla particionada de
Db2 LUW. Sin embargo, PostgreSQL no admite referencias de clave externa en tablas particionadas.
PostgreSQL tampoco admite las referencias de clave externa entre una tabla particionada y otra tabla.
• Puede crear un índice en una tabla particionada en Db2 LUW. Sin embargo, PostgreSQL requiere que
se cree un índice para cada partición directamente. Los índices deben eliminarse de la tabla principal. El
nombre del índice convertido tiene el formato <nombre_índice_original>_<nombre_partición_original>.
Version 1.0
64
Schema Conversion Tool de AWS Guía del usuario
Uso de Amazon Redshift como origen de
Herramienta de conversión de esquemas de AWS
• Debe definir los disparadores de fila en las particiones individuales, no en la tabla particionada. Los
disparadores deben eliminarse de la tabla principal. El nombre del disparador convertido tiene el formato
<nombre_disparador_original>_<nombre_partición_original>.
• Amazon Redshift
Version 1.0
65
Schema Conversion Tool de AWS Guía del usuario
Conexión a Redshift como origen
2. Proporcione la información de conexión de la base de datos de Amazon Redshift de origen. Utilice las
instrucciones de la siguiente tabla.
Use SSL Seleccione esta opción si desea utilizar SSL para conectarse a
la base de datos. Proporcione la siguiente información adicional,
según proceda, en la pestaña SSL:
Version 1.0
66
Schema Conversion Tool de AWS Guía del usuario
Utilizar Oracle DW como origen para Herramienta
de conversión de esquemas de AWS
Redshift Driver Path Escriba la ruta al controlador que quiere usar para conectarse
a la base de datos de origen. Para obtener más información,
consulte Instalación de los controladores de bases de datos
necesarios (p. 8).
3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datos
de origen.
4. Seleccione OK para conectarse a su base de datos de origen.
• connect
• select_catalog_role
• select any dictionary
Version 1.0
67
Schema Conversion Tool de AWS Guía del usuario
Conexión a OracleDW como origen
• SID
• Server name: el nombre DNS o la dirección IP de su servidor
de base de datos de origen.
• Server port: el puerto que utilice para conectarse al servidor
de su base de datos de origen.
• Oracle SID: el ID del sistema (SID) de Oracle. Para encontrar
el SID de Oracle, envíe la siguiente consulta a su base de
datos de Oracle:
SELECT sys_context('userenv','instance_name')
AS SID FROM dual;
• Nombre del servicio
• Server name: el nombre DNS o la dirección IP de su servidor
de base de datos de origen.
Version 1.0
68
Schema Conversion Tool de AWS Guía del usuario
Conexión a OracleDW como origen
Use SSL Seleccione esta opción si desea utilizar SSL para conectarse a
la base de datos. Proporcione la siguiente información adicional,
según proceda, en la pestaña SSL:
Version 1.0
69
Schema Conversion Tool de AWS Guía del usuario
Utilizar Teradata como origen para Herramienta
de conversión de esquemas de AWS
Oracle Driver Path Escriba la ruta al controlador que quiere usar para conectarse
a la base de datos de origen. Para obtener más información,
consulte Instalación de los controladores de bases de datos
necesarios (p. 8).
3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datos
de origen.
4. Seleccione OK para conectarse a su base de datos de origen.
• SELECT ON DBC
Version 1.0
70
Schema Conversion Tool de AWS Guía del usuario
Conexión a Teradata como origen
Version 1.0
71
Schema Conversion Tool de AWS Guía del usuario
Conexión a Teradata como origen
Encrypt Data Seleccione esta opción si desea cifrar los datos que intercambie
con la base de datos.
Teradata Driver Path Escriba la ruta al controlador que quiere usar para conectarse
a la base de datos de origen. Para obtener más información,
consulte Instalación de los controladores de bases de datos
necesarios (p. 8).
3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datos
de origen.
4. Seleccione OK para conectarse a su base de datos de origen.
AuthorizationSupported="no"
LdapServerName="DC.test.local.com"
LdapServerPort="389"
LdapServerRealm="test.local.com"
LdapSystemFQDN="dc= test, dc= local, dc=com"
LdapBaseFQDN="dc=test, dc=local, dc=com"
#cd /opt/teradata/tdgss/bin
#./run_tdgssconfig
Version 1.0
72
Schema Conversion Tool de AWS Guía del usuario
Utilizar Netezza como origen para Herramienta
de conversión de esquemas de AWS
4. Cree el mismo usuario en la base de datos de Teradata que en Active Directory, tal y como se muestra
a continuación.
Si cambia la contraseña de usuario en Active Directory para su usuario LDAP, debe especificar esta nueva
contraseña durante la conexión a Teradata en modo LDAP. En el modo DEFAULT, sigue siendo necesario
conectarse a Teradata con el nombre de usuario y una contraseña de LDAP.
Version 1.0
73
Schema Conversion Tool de AWS Guía del usuario
Conexión a Netezza como origen
Version 1.0
74
Schema Conversion Tool de AWS Guía del usuario
Utilizar Greenplum como origen para Herramienta
de conversión de esquemas de AWS
Netezza Driver Path Escriba la ruta al controlador que quiere usar para conectarse
a la base de datos de origen. Para obtener más información,
consulte Instalación de los controladores de bases de datos
necesarios (p. 8).
3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datos
de origen.
4. Seleccione OK para conectarse a su base de datos de origen.
Version 1.0
75
Schema Conversion Tool de AWS Guía del usuario
Conexión a Greenplum como origen
Version 1.0
76
Schema Conversion Tool de AWS Guía del usuario
Utilizar Vertica como origen para Herramienta
de conversión de esquemas de AWS
Use SSL Seleccione esta opción si desea utilizar SSL para conectarse a
la base de datos. Proporcione la siguiente información adicional,
según proceda, en la pestaña SSL:
Greenplum Driver Path Escriba la ruta al controlador que quiere usar para conectarse
a la base de datos de origen. Para obtener más información,
consulte Instalación de los controladores de bases de datos
necesarios (p. 8).
3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datos
de origen.
4. Seleccione OK para conectarse a su base de datos de origen.
Version 1.0
77
Schema Conversion Tool de AWS Guía del usuario
Conexión a Vertica como origen
2. Proporcione la información de conexión de la base de datos Vertica de origen. Utilice las instrucciones
de la siguiente tabla.
Version 1.0
78
Schema Conversion Tool de AWS Guía del usuario
Uso de Microsoft SQL Server DW como origen para
Herramienta de conversión de esquemas de AWS
Use SSL Seleccione esta opción si desea utilizar SSL para conectarse a
la base de datos. Proporcione la siguiente información adicional,
según proceda, en la pestaña SSL:
Vertica Driver Path Escriba la ruta al controlador que quiere usar para conectarse
a la base de datos de origen. Para obtener más información,
consulte Instalación de los controladores de bases de datos
necesarios (p. 8).
3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datos
de origen.
4. Seleccione OK para conectarse a su base de datos de origen.
Version 1.0
79
Schema Conversion Tool de AWS Guía del usuario
Fuente: Microsoft SQL Server Data Warehouse
• VIEW DEFINITION
• VIEW DATABASE STATE
• SELECT ON SCHEMA :: <schema_name>
Repita la concesión para cada base de datos cuyo esquema vaya a convertir.
Para conectarse a una base de datos de Microsoft SQL Server Data Warehouse de origen
Version 1.0
80
Schema Conversion Tool de AWS Guía del usuario
Conexión a SQLServerDW como origen
2. Proporcione la información de conexión a la base de datos de Microsoft SQL Server Data Warehouse
de origen. Utilice las instrucciones de la siguiente tabla.
Sql Server Driver Path Escriba la ruta al controlador que quiere usar para conectarse
a la base de datos de origen. Para obtener más información,
consulte Instalación de los controladores de bases de datos
necesarios (p. 8).
Version 1.0
81
Schema Conversion Tool de AWS Guía del usuario
Conexión a SQLServerDW como origen
3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datos
de origen.
4. Seleccione OK para conectarse a su base de datos de origen.
Version 1.0
82
Schema Conversion Tool de AWS Guía del usuario
Informes de evaluación de migración
Puede utilizar AWS SCT para crear un informe de evaluación de la migración de la base de datos. Con
este informe, obtendrá un resumen de sus tareas de conversión del esquema y detalles de elementos que
no se pueden convertir automáticamente a la base de datos de destino. Puede utilizar este informe para
evaluar qué parte del proyecto se puede realizar con Herramienta de conversión de esquemas de AWS, y
qué más tiene que hacer para completar la conversión. Para crear un informe de evaluación, utilice Create
Report (Crear informe) en el menú contextual (clic con el botón derecho) de la base de datos en AWS SCT.
Puede utilizar AWS WQF durante la fase de planificación de la migración para obtener información
acerca de qué nivel de esfuerzo se necesita para migrar los datos y las aplicaciones. WQF es una
aplicación independiente que está integrada con AWS SCT y AWS DMS. Puede utilizarla para crear
informes de inventario e informes de calculadora de costos. Para configurar WQF, vaya a Global Settings
(Configuración global) en la aplicación SCT y configure los controladores de JDBC necesarios para sus
bases de datos de origen. A continuación, inicie WQF y siga las instrucciones en la pantalla que se abre en
AWS Cloud9.
Temas
• Creación de informes de evaluación con Herramienta de conversión de esquemas de AWS (p. 83)
• Creación de informes de migración con Workload Qualification Framework (p. 88)
• Resumen ejecutivo
• Evaluación de licencias
• Compatibilidad con la nube, que indica las características de la base de datos de origen no disponibles
en el destino
• Configuración de hardware de origen actual
• Recomendaciones, incluida la conversión de objetos de servidor, sugerencias de backup y cambios en el
servidor enlazado
El informe incluye la siguiente información acerca de una instancia de base de datos de Amazon RDS si ha
seleccionado Amazon RDS en el destino:
Version 1.0
83
Schema Conversion Tool de AWS Guía del usuario
Creación de un informe de evaluación
de la migración de la base de datos
El informe incluye también estimaciones de la cantidad de esfuerzo necesario para escribir el código
equivalente para su instancia de base de datos de destino que no se pudo convertir automáticamente.
Este campo de complejidad estimada se exporta en la versión PDF del informe de evaluación, pero no se
incluye en la versión CSV.
Si utiliza AWS SCT para migrar su esquema existente a una instancia de base de datos de Amazon RDS,
el informe puede ayudarle a analizar los requisitos para migrar a la nube de AWS y para cambiar el tipo de
licencia.
Temas
• Creación de un informe de evaluación de la migración de la base de datos (p. 84)
• Visualización del informe de evaluación (p. 85)
• Guardar el informe de evaluación (p. 87)
1. En el panel de la izquierda que muestra el esquema de la base de datos de origen, elija el objeto del
esquema para el que desea crear un informe de evaluación.
2. Abra el menú contextual (clic secundario) para el objeto y seleccione Create Report.
Version 1.0
84
Schema Conversion Tool de AWS Guía del usuario
Visualización del informe de evaluación
• Resumen
• Elementos de acción
La pestaña Action Items (Elementos de acción) muestra los elementos que no se han podido convertir
automáticamente y recomendaciones sobre qué hacer con ellos.
Temas
• Resumen de un informe de evaluación (p. 85)
• Elementos de acción del informe de evaluación (p. 86)
Version 1.0
85
Schema Conversion Tool de AWS Guía del usuario
Visualización del informe de evaluación
Para los elementos del esquema que no se puedan convertir automáticamente al motor de base de datos
de destino, el resumen incluye una estimación del esfuerzo necesario para crear elementos del esquema
en su instancia de base de datos de destino que sean equivalentes a los de su base de datos de origen.
En el informe, el tiempo estimado para convertir estos elementos del esquema se clasifica en los
siguientes grupos:
La sección License Evaluation and Cloud Support contiene información sobre el traslado de sus esquemas
de bases de datos locales existentes a una instancia de base de datos de Amazon RDS que ejecute
el mismo motor. Por ejemplo, si desea cambiar tipos de licencia, esta sección del informe le indica qué
características de su base de datos actual deberían eliminarse.
El informe también contiene recomendaciones sobre cómo convertir el elemento del esquema de forma
manual. Para obtener más información sobre decidir cómo administrar las conversiones manuales,
consulte Administración de conversiones manuales en la Herramienta de conversión de esquemas de
AWS (p. 107).
Version 1.0
86
Schema Conversion Tool de AWS Guía del usuario
Guardar el informe de evaluación
Version 1.0
87
Schema Conversion Tool de AWS Guía del usuario
Informes de migración de WQF
Version 1.0
88
Schema Conversion Tool de AWS Guía del usuario
Configuración del WQF de AWS
Puede utilizar WQF durante la fase de planificación de su proceso de migración para determinar lo que
tiene que hacer para migrar sus datos y aplicaciones. SCT accede a su conversión de esquemas; en
cambio, WQF notifica lo siguiente:
Temas
• Configuración del WQF de AWS (p. 89)
• Preparación para importaciones de lotes de componentes lógicos y físicos (p. 90)
• Creación de informes de WQF (p. 93)
• Descripción de las categorías de la carga de trabajo (p. 96)
Utilice el siguiente procedimiento para lanzar la AMI compartida. Antes de comenzar, asegúrese de que
dispone de un par de claves activas almacenadas en un archivo .pem en el disco duro local.
Si no está familiarizado con el lanzamiento de AMI o la creación de instancias de EC2, vea este breve
vídeo de soporte de AWS: How do I launch an EC2 instance from a custom Amazon Machine Image
(AMI) (¿Cómo puedo lanzar una instancia de EC2 desde una Imagen de Amazon Machine (AMI)
personalizada)
3. En la consola de EC2, elija Instances (Instancias). Cuando la instancia esté disponible, abra su
menú contextual (clic con el botón derecho) y elija Get Windows Password (Obtener contraseña de
Windows). Recupere la contraseña utilizando el mismo archivo .pem utilizado en el paso anterior para
configurar la instancia.
4. Conéctese a la instancia usando una aplicación de escritorio remoto. Para obtener más información,
consulte Conexión con su instancia de Windows.
Version 1.0
89
Schema Conversion Tool de AWS Guía del usuario
Preparación para importaciones de lotes
Después de configurar SCT y WQF, debe configurar los controladores de la base de datos en SCT antes
de usar WQF. Use el siguiente procedimiento para configurar los controladores.
1. Localice y descargue los controladores de Java Database Connectivity (JDBC) para sus orígenes de
datos. Coloque los archivos .jar en la máquina que tiene SCT y WQF instalados. Para obtener más
información, consulte Instalación de los controladores de bases de datos necesarios (p. 8).
2. Abra SCT y elija Settings (Configuración) y, a continuación, elija Global Settings (Configuración
global).
3. Elija la pestaña Drivers (Controladores).
4. Para cada origen de datos, utilice Browse (Examinar) para desplazarse a la ubicación del archivo .jar.
5. Elija Aceptar para confirmar.
Para ejecutar el modo del lote, tiene que generar dos archivos:
Puede utilizar el método que prefiera para crear estos archivos. Para ambos archivos, si ejecuta WQF
totalmente offline, no tiene que proporcionar el nombre de usuario o la contraseña. Esto se debe a que en
el modo offline no se conecta a ningún servidor. En las siguientes secciones, proporcionamos plantillas
para estos archivos.
Note
El siguiente ejemplo muestra el JSON que puede utilizar cuando ejecute el WQF en el modo offline.
En el modo offline, puede eliminar username, password y connection-type de su JSON.
También puede añadir un campo adicional a su JSON. El campo adicional se denomina sct-
file y los valores que incluye son la ruta de directorio completa y el nombre del archivo .zip de las
estadísticas generado por la SCT. A continuación se muestra un ejemplo: D:\Temp\WQF\Oracle-
WqfStats-2019-03-09-01-56.zip. Para el modo offline, el ejemplo de JSON es como el siguiente.
{
"name": "component_name",
"description": "My description",
Version 1.0
90
Schema Conversion Tool de AWS Guía del usuario
Preparación para importaciones de lotes
"type": "database",
"properties": {
"number-of-advance-config-features": "123",
"has-proprietary-logic-in-OLAP": "true",
"number-of-hardware-features": "100"
},
"selected-schemas": [
{
"schema": "schema_name"
}
],
"source-dialect": "ORACLE",
"source-connection-config": {
"server": "host",
"server-port": "port",
"sid": "ORCL"
},
"sct-file": "D:\\Temp\\WQF\\Oracle-WqfStats-2019-03-09-01-56.zip"
}
El siguiente ejemplo muestra el JSON que puede utilizar para componentes lógicos cuando ejecute el
WQF en el modo online.
[
{
"name": "component_name",
"description": "My description",
"type": "database",
"properties": {
"number-of-advance-config-features": "123",
"has-proprietary-logic-in-OLAP": "true",
"number-of-hardware-features": "100"
},
"selected-schemas": [
{
"schema": "schema_name"
}
],
"source-dialect": "ORACLE",
"source-connection-config": {
"server": "host",
"server-port": "port",
"sid": "sid",
"username": "user",
"password": "pass",
"connection-type": "SID"
}
},
{
"name": "component_name1",
"description": "My new Description",
"type": "database",
"properties": {
"number-of-advance-config-features": "321",
"has-proprietary-logic-in-OLAP": "true",
"number-of-hardware-features": "50"
},
"selected-schemas": [
{
"database": "db_name",
"schema": "schema_name"
}
],
"source-dialect": "MSSQL",
Version 1.0
91
Schema Conversion Tool de AWS Guía del usuario
Preparación para importaciones de lotes
"source-connection-config": {
"server": "host",
"server-port": "port",
"sid": "",
"username": "user",
"password": "pass"
}
},
{
"name": "component_name2",
"description": "description",
"type": "application",
"properties": {
"source-unavailable": "false",
"number-of-native-code-extensions": 1,
"number-af-advance-config-features": 2,
"number-of-hardware-features": 3
},
"language": "JAVA",
"selected-schemas": [
{
"database": "db_name",
"schema": "schema_name"
}
],
"source-code-path": "path_to_application_files",
"source-dialect": "MSSQL",
"source-connection-config": {
"server": "host",
"server-port": "port",
"sid": "",
"username": "user",
"password": "pass"
}
}
]
Si abre este archivo .csv en Microsoft Excel, puede ver los campos indicados. De este modo, podría
facilitar la edición si no exporta sus componentes físicos de forma programada. Como hoja de cálculo, el
archivo tiene un aspecto similar al siguiente.
Note
Si ejecuta en modo offline, tiene que añadir un campo adicional al siguiente CSV. El campo
adicional debería denominarse SCTFILE y los valores que incluye deberían ser la ruta de
directorio completa y el nombre del archivo .zip de las estadísticas generado por la SCT. Un
ejemplo es: D:\Temp\WQF\Oracle-WqfStats-2019-03-09-01-56.zip.
NAME,serverName,port,instanceName/
SID,userName,password,databaseType,description,hasHADRRequirements,hasHeavyGeospatialPayload
component_name,host,port,sid,user,password,Oracle,mycomponent,true,false
Version 1.0
92
Schema Conversion Tool de AWS Guía del usuario
Creación de informes
NAME serverName
port instanceName/
userNamepassworddatabaseType
description
hasHADRRequirements
hasHeavyGeospatia
SID
component_name
host port sid user passwordOracle mycomponent
TRUE FALSE
Puede utilizar una instalación local de SCT o un archivo .zip de otra máquina.
4. Añadir un componente lógico o más para cada aplicación del proyecto. De este modo, WQF recopila
información detallada acerca de objetos de base de datos y aplicaciones.
Puede utilizar una instalación local de SCT o un archivo .zip de otra máquina.
5. Generar el inventario y los informes de análisis WQF para planificar el proyecto.
6. Copiar los archivos de informes descargados en una máquina con Microsoft Excel instalado y abrirlos
para obtener información detallada sobre el proyecto de migración.
• Informes de inventario
Estos informes categorizan la carga de trabajo que está intentando migrar. Detallan elementos de todos
los componentes lógicos y físicos que se han seleccionado como parte de la aplicación. El informe
incluye un modelo de costos de migración que se puede modificar basándose en los resultados de SCT
y recomendaciones sobre cómo realizar las migraciones por aplicación junto con pasos que hay que
seguir para migrar. El informe de calculadora de costos también incluye un informe de inventario.
Puede ver estos informes en Microsoft Excel o cualquier aplicación que admita el formato Office Open
XML.
Temas
• Inicio de WQF (p. 93)
• Creación y edición de un proyecto de WQF (p. 94)
Inicio de WQF
Después de configurar SCT y WQF, inicie el servicio WQF haciendo doble clic en el icono WQF Start
(Inicio de WQF) en el escritorio. Se abre una serie de ventanas de terminal cuando se inicia WQF.
Version 1.0
93
Schema Conversion Tool de AWS Guía del usuario
Creación de informes
Después de iniciarse correctamente WQF, utilice Google Chrome (preinstalado en la AMI) y vaya a http://
localhost:4040/ide.html. De este modo, se abre el módulo de WQF en la consola de AWS Cloud9.
1. Para crear un nuevo proyecto, abra WQF e introduzca un nombre descriptivo para su proyecto en
Create new project (Crear nuevo proyecto). A continuación, elija Create.
• Para iniciar el asistente, elija Create report (Crear informe). Este asistente le guía a través de todos
los pasos necesarios para utilizar la aplicación WQF.
• Para obtener acceso a un informe existente, selecciónelo en la lista. Puede ver, editar o eliminar un
informe o cambiar su tipo de informe.
3. En la pantalla Report (Informe), elija un tipo de informe para Type (Tipo). Introduzca un nombre y una
descripción opcional para su informe.
El análisis de componentes físicos ayuda a recopilar información detallada sobre el servidor de la base
de datos de origen para el informe de inventario. Basándose en el uso de características avanzadas,
WQF incluye algunos detalles para calcular categorización general del proyecto de migración. Puede
elegir crear un componente físico único usando SCT (o cargando un archivo .zip de un proyecto de
SCT). También puede cargar detalles de varios componentes físicos como un archivo JSON para
realizar análisis de componentes físicos de toda la flota.
• Para conectarse a nuevos componentes físicos, elija New (Nuevo). Escriba un nombre descriptivo y
una descripción opcional y, a continuación, elija una base de datos de origen. Si desea proporcionar
más información, siga las instrucciones en pantalla. Seleccione Next (Siguiente).
• Para importar un archivo CSV, seleccione Import (Importar). Para obtener más información acerca
del formato del archivo de registro, consulte Plantilla de ejemplo para los componentes físicos para
la importación de lotes (CSV) (p. 92).
En la pantalla Import physical components from CSV file (Importar componentes físicos de archivo
CSV), seleccione Choose (Elegir) para ir a su archivo CSV y, a continuación, elija Save (Guardar).
Seleccione Cancel (Cancelar) para volver a la pantalla Physical Components (Componentes físicos)
sin realizar cambios.
• Para importar un archivo ZIP, elija Load from Archive (Cargar desde archivo). Elija Choose (Elegir)
para ir a su archivo CSV, a continuación, seleccione Open (Abrir). Para obtener más información
sobre del formato del archivo de registro, consulte Plantilla de ejemplo para los componentes físicos
para la importación de lotes (CSV) (p. 92).
• Para conectarse a su base de datos (valor predeterminado), elija Load from DB (Cargar desde BD)
e introduzca los detalles de conexión:
• Nombre de servidor o dirección IP
• Puerto de servidor
• Nombre de instancia (opcional)
• Nombre de usuario
• Contraseña
• Habilitar o no la Capa de conexión segura (SSL)
Para realizar la recopilación de datos ahora, elija Get schemas (Obtener esquemas) y elija los
esquemas que incluir y haga clic en Save (Guardar).
Repita este paso hasta que haya cargado todos sus componentes físicos. A continuación elija Next
(Siguiente) para continuar.
6. (Solo para informes de calculadora de costos) En la pestaña Logical Components (Componentes
lógicos), puede cargar los componentes lógicos de su sistema. El análisis de componentes lógicos
ayuda a WQF a recopilar información sobre lo siguiente:
Puede elegir crear un componente lógico único usando SCT (o cargando un archivo zip de un
proyecto de SCT). Como alternativa, puede cargar detalles de varios componentes lógicos como un
archivo JSON para realizar análisis de componentes lógicos de toda la flota.
• Para conectarse a nuevos componentes físicos, elija New (Nuevo). Escriba un nombre descriptivo
y una descripción opcional y, a continuación, elija un tipo y una base de datos de origen. Si desea
proporcionar más información, siga las instrucciones en pantalla. Seleccione Next (Siguiente).
• Para importar un archivo CSV, seleccione Import (Importar). Para obtener más información sobre
del formato del archivo de registro, consulte Plantilla de ejemplo para los componentes lógicos para
la importación de lotes (JSON) (p. 90).
En la pantalla Import physical components from CSV file (Importar componentes físicos de archivo
CSV), seleccione Choose (Elegir) para ir a su archivo CSV y, a continuación, elija Save (Guardar).
Si desea cerrar esta pantalla sin realizar los cambios, seleccione Cancel (Cancelar) para volver a la
pantalla Physical Components (Componentes físicos).
7. (Solo para informes de calculadora de costos) En el panel Data Collection (Recopilación de datos) de
la pestaña Logical Components (Componentes lógicos), puede seleccionar si cargar sus estructuras
de datos desde un archivo de almacenamiento o desde la base de datos.
• Para importar un archivo ZIP, elija Load from Archive (Cargar desde archivo). Elija Choose (Elegir)
para ir a su archivo CSV, a continuación, seleccione Open (Abrir).
Version 1.0
95
Schema Conversion Tool de AWS Guía del usuario
Descripción de las categorías de la carga de trabajo
• Para conectarse a su base de datos (valor predeterminado), elija Load from DB (Cargar desde BD)
e introduzca los detalles de conexión:
• Nombre o IP de servidor
• Puerto de servidor
• Nombre de instancia (opcional)
• Nombre de usuario
• Contraseña
• SSL (habilitar o no habilitar)
Elija Run (Ejecutar) para realizar ahora la recopilación de datos o seleccione Save (Guardar) para
guardar los cambios sin ejecutar el proceso. Si ejecuta en el modo offline, no tiene que ejecutar el
proceso de recopilación de datos ya que todo se encuentra en el archivo de estadísticas generado por
SCT.
Repita este paso hasta que haya cargado todos sus componentes lógicos. A continuación elija Next
(Siguiente) para continuar.
8. (Solo para informes de calculadora de costos) En la pestaña Applications (Aplicaciones), seleccione
los componentes de su aplicación. Escriba un nombre para la aplicación. En el lado izquierdo,
seleccione los componentes que desee incluir. Para eliminar componentes, elíjalos en el lado derecho
a sacarlos de la lista Selected Components (Componentes seleccionados).
Las aplicaciones constan de una combinación de componentes físicos y lógicos. Al analizar estos
de forma conjunta, WQF determina la complejidad de la migración en función de los diferentes
parámetros y detalles recopilados como parte de cada análisis de componente físicos y lógicos.
El informe descarga en formato Open XML y puede abrirlo en un editor de Open XML como Microsoft
Excel. En el informe, puede ver la categorización con formato, el análisis y las estrategias de
migración. Los informes se generan para cada aplicación y contienen el conjunto de componentes
lógicos y físicos elegido.
12. (Opcional) Para eliminar un informe o un proyecto, elija el informe y, a continuación, elija Delete
(Eliminar).
Temas
• Categoría 1: cargas de trabajo que utilizan ODBC y JDBC (p. 97)
Version 1.0
96
Schema Conversion Tool de AWS Guía del usuario
Descripción de las categorías de la carga de trabajo
• Categoría 2: cargas de trabajo con escaso uso de características propietarias (p. 97)
• Categoría 3: cargas de trabajo con uso intensivo de características propietarias (p. 97)
• Categoría 4: cargas de trabajo específicas de motor (p. 98)
• Categoría 5: no portable, riesgo inaceptable o cargas de trabajo de"migración directa" (p. 98)
En esta categoría, los almacenes de datos utilizan un esquema de estrella o copos de nieve con una
capa de informes que utiliza SQL específico del motor, como SQL ANSI, como Amazon QuickSight o
Tableau. La portabilidad a Amazon Redshift es relativamente fácil, ya que el modelo de datos se conserva
y se definen las claves de ordenación mejoradas, las claves de distribución, la compresión y se configura
correctamente la administración de cargas de trabajo (WLM).
La portabilidad de estas cargas de trabajo a Amazon Aurora y Amazon RDS es sencilla. Una migración en
esta categoría normalmente requiere pocas horas por persona.
En esta categoría, las cargas de trabajo del almacén de datos puede organizarse en tablas y
transformarlos utilizando SQL integrado en procedimientos almacenados simples. Las escrituras en el
almacén de datos pueden tener algunos microlotes o un gran número de actualizaciones, eliminaciones y
transacciones. El almacén de datos también puede utilizar extensiones de procesamiento analítico online
de propietario (OLAP) como CUBE, ROLLUP o PIVOT.
Version 1.0
97
Schema Conversion Tool de AWS Guía del usuario
Descripción de las categorías de la carga de trabajo
dependen de las características de hardware nativas, como Exadata, Supercluster y PDW. Las cargas de
trabajo de alto rendimiento a menudo se incluyen en esta categoría. Las opciones de ajuste presentes en
código local tienen que convertirse y comprobarse con las opciones disponibles en la base de datos de
destino.
Los almacenes de datos en esta categoría contienen un gran número de procedimientos almacenados y
funciones definidas por el usuario que organizan la extracción, la transformación y operaciones de carga
(ETL) o crean vistas de las operaciones empresariales. Sus procesos de ETL no se pueden expresar
fácilmente en Amazon Redshift, aunque gran parte de la lógica empresarial podría representarse como
vistas. Estos almacenes de datos también pueden tener muchos miles de tablas con un gran número
de transacciones para administrar el flujo de trabajo de ETL. Cuando la migración con Amazon Redshift
como destino, tales cargas de trabajo requieren rediseñar la aplicación para separar la carga de trabajo
transaccional de los informes. Rediseñar también requiere la extracción de la lógica del almacén de datos y
en otra capa de cómputo.
Estas cargas de trabajo son difíciles de migrar y pueden constituir un riesgo importante para el cliente. Es
posible que la migración de esta carga de trabajo consuma un número importante de horas por persona.
Un almacén de datos en esta categoría podría confiar en gran medida en características de propietario
como Geospatial a escala de petabytes. Estas características pueden contener lógica de propietario en
estructuras de datos OLAP. Las cargas de trabajo podrían tener requisitos de disponibilidad, replicación o
concurrencia de usuarios que no se pueden cumplir con una arquitectura de zona de disponibilidad única.
Podrían tener requisitos de latencia que hacen imposible el uso de Amazon Athena.
Estas cargas de trabajo son muy difícil de migrar. Es posible que la migración de esta carga de trabajo
necesite un número importante de horas por persona. La realización de esta migración también constituye
un riesgo significativo. La migración de esta carga de trabajo puede que no se admita desde la perspectiva
de certificación o soporte de terceros.
Puede migrar estas aplicaciones a Amazon EC2. Podría tener requisitos de emulación o requerir otras
soluciones de terceros. En algunos casos, el riesgo de mover estas cargas de trabajo desde el entorno
existente podría ser demasiado alto para justificarlo. En ese caso, es conveniente mantener la conectividad
de alto rendimiento a la implementación local con una topología de red que admita los requisitos de la
aplicación.
Version 1.0
98
Schema Conversion Tool de AWS Guía del usuario
• También puede utilizar la AWS SCT para copiar un esquema de base de datos local existente a
una instancia de base de datos de Amazon RDS que ejecute el mismo motor. Puede utilizar esta
característica para analizar posibles ahorros de costos en la migración a la nube y en el cambio del tipo
de licencia.
• En algunos casos, las características de la base de datos de origen no se pueden convertir a
características de Amazon RDS equivalentes. Si aloja y gestiona una base de datos en la plataforma
de Amazon Elastic Compute Cloud (Amazon EC2), puede simular estas características sustituyendo los
servicios de AWS por ellas.
• AWS SCT automatiza gran parte del proceso de conversión de su esquema de base de datos de
procesamiento de transacciones online (OLTP) a una instancia de base de datos MySQL de Amazon
Relational Database Service (Amazon RDS), un clúster de base de datos de Amazon Aurora o una
instancia de base de datos PostgreSQL. Los motores de base de datos de origen y de destino contienen
diferentes características y capacidades, por lo que la AWS SCT intenta crear un esquema equivalente
en su instancia de base de datos de Amazon RDS siempre que sea posible. Si no es posible la
conversión directa, la AWS SCT proporciona una lista de posibles acciones que puede realizar.
Temas
• Creación de reglas de mapeo en la Herramienta de conversión de esquemas de AWS (AWS
SCT) (p. 101)
• Conversión de su esquema con la Herramienta de conversión de esquemas de AWS (p. 103)
• Administración de conversiones manuales en la Herramienta de conversión de esquemas de
AWS (p. 107)
• Actualización de un esquema convertido en la Herramienta de conversión de esquemas de
AWS (p. 108)
• Guardado y aplicación de un esquema convertido en la Herramienta de conversión de esquemas de
AWS (p. 109)
• Comparación de esquemas de bases de datos (p. 112)
• Búsqueda de objetos transformados relacionados (p. 113)
Version 1.0
99
Schema Conversion Tool de AWS Guía del usuario
Microsoft SQL Server (versión 2008 y posteriores) Amazon Aurora (MySQL o PostgreSQL), Microsoft
SQL Server, MySQL, PostgreSQL
DB2 LUW (versiones 9.5, 9.7, 10.5 y 11.1) Amazon Aurora (MySQL o PostgreSQL), MySQL,
PostgreSQL
Para convertir su esquema de base de datos a Amazon RDS, siga estos pasos de alto nivel. Cada paso es
un enlace a una sección que proporciona más información.
• Creación de reglas de mapeo en la Herramienta de conversión de esquemas de AWS (p. 117) – Antes
de convertir su esquema con AWS SCT, puede configurar reglas que cambien el tipo de datos de las
columnas, mover objetos de un esquema a otro y cambiar los nombres de los objetos.
• Conversión de su esquema con la Herramienta de conversión de esquemas de AWS (p. 103) – AWS
SCT crea una versión local del esquema convertido para que lo revise, pero no se aplica a su instancia
de base de datos de destino hasta que esté listo.
• Creación de informes de evaluación con Herramienta de conversión de esquemas de AWS (p. 83) –
AWS SCT crea un informe de evaluación de la migración de la base de datos en el que se detallen los
elementos del esquema que no se pueden convertir automáticamente. Puede utilizar este informe para
identificar dónde necesita crear un esquema en su instancia de base de datos de Amazon RDS que sea
compatible con su base de datos de origen.
• Administración de conversiones manuales en la Herramienta de conversión de esquemas de
AWS (p. 107): – si tiene elementos del esquema que no se pueden convertir automáticamente, dispone
de dos opciones: actualizar el esquema de origen y, a continuación, volver a convertirlo, o bien crear
elementos de esquema equivalentes en su instancia de base de datos de Amazon RDS de destino.
• Actualización de un esquema convertido en la Herramienta de conversión de esquemas de
AWS (p. 108): – puede actualizar el proyecto de AWS SCT con el esquema más reciente de su base
de datos de origen.
• Guardado y aplicación de un esquema convertido en la Herramienta de conversión de esquemas de
AWS (p. 109): – cuando esté listo, haga que AWS SCT aplique el esquema convertido en su proyecto
local a su instancia de base de datos de Amazon RDS de destino.
Version 1.0
100
Schema Conversion Tool de AWS Guía del usuario
Creación de reglas de mapeo
Solo puede crear reglas de mapeo si el motor de la base de datos de origen y el de la de destino
son diferentes.
• Base de datos
• Esquema
• Tabla
• Columna
1. Seleccione Mapping Rules en el menú Settings. Aparecerá el cuadro de diálogo Mapping Rules.
Version 1.0
101
Schema Conversion Tool de AWS Guía del usuario
Creación de reglas de mapeo para objetos
2. Seleccione Add new rule. Se agregará una nueva fila a la lista de reglas.
3. Seleccione el icono de edición para configurar su regla.
Los campos disponibles para la cláusula where son diferentes en función del tipo de objeto. Por
ejemplo, si el tipo de objeto es esquema, solo habrá un campo disponible, para el nombre del
esquema.
d. En Actions, seleccione el tipo de regla de mapeo que quiera crear.
e. En función del tipo de regla, escriba uno o dos valores adicionales. Por ejemplo, para cambiar
el nombre de un objeto, escriba el nuevo nombre del objeto. Para sustituir un prefijo, escriba el
prefijo anterior y el nuevo prefijo.
4. Tras haber configurado su regla de mapeo, seleccione Save para guardar su regla. También puede
seleccionar Cancel para cancelar los cambios.
5. Cuando haya acabado de agregar, editar y eliminar reglas, seleccione Save All para guardar todos los
cambios.
6. Seleccione Close para cerrar el cuadro de diálogo Mapping Rules.
Puede utilizar el icono de alternar para desactivar una regla de mapeo sin eliminarla. También puede
utilizar el icono de copia para duplicar una regla de mapeo existente. Puede utilizar el icono de eliminar
para borrar una regla de mapeo existente. Para guardar los cambios que realice en sus reglas de mapeo,
seleccione Save All.
Version 1.0
102
Schema Conversion Tool de AWS Guía del usuario
Exportación de reglas de mapeo
el esquema de origen y el nuevo nombre del objeto en el esquema de destino. Si tiene reglas de tipos de
datos, también verá el tipo de dato de la columna en el esquema de origen y el nuevo tipo de dato de la
columna en el esquema de destino.
Puede seleccionar elementos del esquema en su base de datos de origen y, después, convertir el
esquema en un esquema equivalente para el motor de la base de datos de su instancia de base de datos
de destino. Puede seleccionar cualquier elemento del esquema en su base de datos de origen para
convertirlo. Si el elemento del esquema que seleccione depende de un elemento principal, AWS SCT
generará también el esquema para el elemento principal. Por ejemplo, si selecciona una columna de una
tabla para convertirla, AWS SCT generará el esquema para la columna, la tabla en la que está la columna
y la base de datos en la que está la tabla.
Version 1.0
103
Schema Conversion Tool de AWS Guía del usuario
Conversión del esquema
Una vez que haya convertido el esquema de su base de datos de origen, puede elegir los elementos del
esquema en el panel izquierdo de su proyecto y ver el esquema convertido en los paneles centrales de
su proyecto. El panel inferior central muestra las propiedades y el comando SQL para crear el esquema
convertido, como se muestra a continuación.
Version 1.0
104
Schema Conversion Tool de AWS Guía del usuario
Edición del esquema convertido
Tras haber convertido el esquema, podrá guardar el proyecto. La información del esquema de su base de
datos de origen se guarda con su proyecto. Esta funcionalidad supone que puede trabajar sin conexión
sin estar conectado a su base de datos de origen. AWS SCT se conecta a su base de datos de origen
para actualizar el esquema en su proyecto si selecciona Refresh from Database (Actualizar desde base
de datos) para su base de datos de origen. Para obtener más información, consulte Actualización de un
esquema convertido en la Herramienta de conversión de esquemas de AWS (p. 108).
Puede crear un informe de evaluación de la migración de la base de datos para los elementos que no
se puedan convertir automáticamente. El informe de evaluación es útil para identificar y solucionar los
elementos del esquema que no se puedan convertir automáticamente. Para obtener más información,
consulte Creación de informes de evaluación con Herramienta de conversión de esquemas de AWS
(p. 83).
Cuando la AWS SCT genera un esquema convertido, no se aplica inmediatamente a la instancia de base
de datos de destino. El esquema convertido se almacena en el entorno local hasta que esté listo para
aplicarlo en la instancia de base de datos de destino. Para obtener más información, consulte Aplicación
del esquema convertido (p. 110).
Version 1.0
105
Schema Conversion Tool de AWS Guía del usuario
Eliminación de un esquema convertido
1. En el panel izquierdo que indica el esquema de la base de datos de origen, seleccione el elemento del
esquema para el que quiera editar el esquema convertido.
2. En el panel inferior central donde se muestra el esquema convertido para el elemento seleccionado,
haga clic en la pestaña SQL.
3. En el texto mostrado para la pestaña SQL, cambie el esquema según sea necesario. El esquema se
guardará automáticamente con su proyecto cuando lo actualice.
Los cambios que realice al esquema convertido se almacenan con su proyecto a medida que realiza las
actualizaciones. Si convierte un nuevo elemento de un esquema desde su base de datos de origen y ha
realizado actualizaciones al esquema previamente convertido para ese elemento, dichas actualizaciones
existentes se verán sustituidas por el elemento del esquema recientemente convertido, en función de su
base de datos de origen.
Version 1.0
106
Schema Conversion Tool de AWS Guía del usuario
Administración de conversiones manuales
Puede responder a los elementos de acción del informe de evaluación de las siguientes formas:
Version 1.0
107
Schema Conversion Tool de AWS Guía del usuario
Modificar su esquema de destino
verifique que los nuevos cambios son compatibles con la arquitectura de su aplicación y, a continuación,
actualice el esquema en la base de datos de origen. Por último, actualice su proyecto con la información
de esquema actualizada. Después, puede convertir el esquema actualizado y generar de nuevo el informe
de evaluación de la migración de la base de datos. Los elementos de acción ya no aparecen para los
elementos que hayan cambiado en el esquema de origen.
La ventaja de este proceso es que el esquema actualizado está siempre disponible al actualizar desde la
base de datos de origen.
El esquema que escrito en la instancia de base de datos de destino no contendrá los elementos que no se
hayan podido convertir automáticamente. Después de aplicar esquemas a la instancia de base de datos de
destino, puede crear manualmente esquemas en dicha instancia que sean equivalentes a los de la base de
datos de origen. Los elementos de acción en el informe de evaluación de la migración de la base de datos
contienen sugerencias sobre cómo crear un esquema equivalente.
Warning
Si crea manualmente esquemas en su instancia de base de datos de destino, guarde una copia
de cualquier operación manual que haya realizado. Si aplica el esquema convertido desde su
proyecto a su instancia de base de datos de destino de nuevo, se sobrescribirá el trabajo manual
que haya realizado.
En algunos casos, no podrá crear un esquema equivalente en la instancia de base de datos de destino.
Tal vez tenga que rediseñar una parte de la aplicación y de la base de datos para usar la funcionalidad
disponible en el motor de base de datos para la instancia de base de datos de destino. En otros casos,
puede omitir simplemente el esquema que no se pueda convertir automáticamente.
• Source (Origen): – si actualiza el esquema para su base de datos de origen, AWS SCT sustituye el
esquema de su proyecto con el último esquema de su base de datos de origen. Con esta funcionalidad,
puede actualizar su proyecto si se ha modificado el esquema de la base de datos de origen.
• Target (Destino): – si actualiza el esquema para su instancia de base de datos Amazon RDS de destino,
AWS SCT sustituye el esquema de su proyecto por el último esquema de su instancia de base de datos
de destino. Si no ha aplicado ningún esquema a su instancia de base de datos de destino, AWS SCT
elimina el esquema convertido de su proyecto. A continuación, puede convertir el esquema de la base de
datos de origen a una instancia de base de datos de destino limpia.
El esquema en su proyecto de la AWS SCT se actualiza seleccionando Refresh from Database (Actualizar
desde base de datos), como se muestra a continuación.
Version 1.0
108
Schema Conversion Tool de AWS Guía del usuario
Guardado y aplicación de un esquema
Si lo desea, puede hacer que la herramienta guarde su esquema convertido en un archivo como script
SQL antes de aplicar el esquema a su instancia de base de datos de destino. También puede hacer que la
herramienta aplique el esquema convertido directamente a su instancia de base de datos de destino.
Version 1.0
109
Schema Conversion Tool de AWS Guía del usuario
Aplicación del esquema convertido
Para guardar el esquema convertido como scripts SQL, abra el menú contextual (clic secundario) para el
elemento del esquema y seleccione Save as SQL, como se muestra a continuación.
Version 1.0
110
Schema Conversion Tool de AWS Guía del usuario
Esquema del paquete de extensión
No modifique el esquema del paquete de extensión, ya que podría encontrarse resultados imprevistos
en el esquema convertido creado en la instancia de base de datos de destino. Cuando el esquema haya
migrado totalmente a su instancia de base de datos de destino y ya no necesite la AWS SCT, puede
eliminar el esquema del paquete de extensión.
Para obtener más información, consulte Uso de las funciones de AWS Lambda del paquete de extensión
AWS SCT (p. 199).
Version 1.0
111
Schema Conversion Tool de AWS Guía del usuario
Comparación de esquemas
Para comparar esquemas, el usuario selecciona los esquemas y AWS SCT indica los objetos que difieren
entre los dos esquemas y los que no.
1. Abra un proyecto de AWS SCT existente o cree un proyecto y conéctese a los puntos de enlace de
origen y destino.
2. Elija el esquema que desea comparar.
3. Abra el menú contextual (haga clic con el botón secundario) y elija Compare Schema.
AWS SCT indica los objetos que son diferentes entre los dos esquemas añadiendo un círculo negro al
icono del objeto.
Version 1.0
112
Schema Conversion Tool de AWS Guía del usuario
Objetos transformados relacionados
Puede aplicar los resultados de la comparación de esquemas a un único objeto, a una única categoría de
objetos o a todo el esquema. Seleccione la casilla situada junto a la categoría, objeto o esquema al que
desee aplicar los resultados.
El siguiente procedimiento le permite ver todos los objetos relacionados que se han creado después de
una conversión del esquema.
Para ver los objetos relacionados que se crearon durante una conversión de esquema
1. Tras la conversión del esquema, elija el objeto convertido en la vista de árbol de destino.
2. Elija la pestaña Related Converted Objects.
3. Consulte la lista de objetos de destino relacionados.
Version 1.0
113
Schema Conversion Tool de AWS Guía del usuario
Conversión de esquemas de
almacén de datos a Amazon
Redshift utilizando la Herramienta de
conversión de esquemas de AWS
La Herramienta de conversión de esquemas de AWS automatiza gran parte del proceso de conversión de
su esquema de data warehouse a un esquema de base de datos de Amazon Redshift. Debido a que los
motores de base de datos de origen y de destino pueden tener diferentes características y capacidades,
AWS SCT intenta crear un esquema equivalente en su base de datos de destino siempre que sea posible.
Si no es posible la conversión directa, AWS SCT proporciona un informe de evaluación con una lista de
posibles acciones que puede realizar. Con AWS SCT, puede administrar claves, mapear tipos de datos y
objetos, y crear conversiones manuales.
AWS SCT puede convertir los siguientes esquemas de almacén de datos a Amazon Redshift.
1. Especifique la estrategia de optimización y las reglas, y especifique el mapeo que desea que utilice
AWS SCT. Puede configurar reglas que cambien el tipo de datos de las columnas, mover objetos de un
esquema a otro y cambiar los nombres de los objetos.
Puede especificar la optimización y el mapeo en Settings (Configuración). Para obtener más información
acerca de estrategias de optimización, consulte Selección de estrategias de optimización y reglas de
uso para la Herramienta de conversión de esquemas de AWS (p. 115). Para obtener más información
sobre el mapeo, consulte Creación de reglas de mapeo en la Herramienta de conversión de esquemas
de AWS (p. 117)
2. Proporcione estadísticas del almacén de datos de origen para que AWS SCT pueda optimizar cómo
se convierte su almacén de datos. Puede recopilar estadísticas directamente desde la base de datos o
cargar un archivo de estadísticas existente. Para obtener más información acerca de cómo proporcionar
estadísticas de almacenamiento de datos, consulte Recopilación o carga de estadísticas para la
Herramienta de conversión de esquemas de AWS (p. 116).
Version 1.0
114
Schema Conversion Tool de AWS Guía del usuario
Selección de estrategias y reglas de optimización
3. Cree un informe de evaluación de la migración de la base de datos en el que se detallen los elementos
del esquema que no se pueden convertir automáticamente. Puede utilizar este informe para identificar
dónde necesita crear manualmente un esquema en su base de datos de destino que sea compatible
con su base de datos de origen. Para obtener más información sobre el informe de evaluación, consulte
Creación de informes de evaluación con Herramienta de conversión de esquemas de AWS (p. 83).
4. Convertir el esquema: la AWS SCT crea una versión local del esquema convertido para que lo revise,
pero no se aplica a su base de datos de destino hasta que esté listo. Para obtener más información
acerca de la conversión, consulte Conversión de su esquema con la Herramienta de conversión de
esquemas de AWS (p. 119).
5. Tras convertir el esquema, puede administrar y editar sus claves. La administración de claves es
la esencia de la conversión de un data warehouse. Para obtener más información acerca de la
administración de claves derivadas, consulte Administración y personalización de claves en la
Herramienta de conversión de esquemas de AWS (p. 123).
6. Si tiene elementos del esquema que no se pueden convertir automáticamente, dispone de dos
opciones: actualizar el esquema de origen y, a continuación, volver a convertirlo, o bien crear elementos
de esquema equivalentes en su base de datos de destino. Para obtener más información acerca
de cómo convertir manualmente elementos de esquema, consulte Administración de conversiones
manuales en la Herramienta de conversión de esquemas de AWS (p. 124). Para obtener más
información acerca de cómo actualizar su esquema de origen, consulte Actualización de un esquema
convertido en la Herramienta de conversión de esquemas de AWS (p. 125).
7. Cuando esté listo, puede aplicar el esquema convertido a la base de datos de destino. Para obtener
más información acerca de cómo guardar y aplicar el esquema convertido, consulte Guardado y
aplicación de un esquema convertido en la Herramienta de conversión de esquemas de AWS (p. 126).
1. Seleccione Settings y después Project Settings. Aparecerá el cuadro de diálogo Current project
settings.
2. En el panel izquierdo, seleccione Optimization Strategies. Las estrategias de optimización aparecerán
en el panel derecho, con los valores predeterminados seleccionados.
3. En Strategy Sector, seleccione la estrategia de optimización que quiera emplear. Puede elegir entre
las siguientes opciones:
• Usar metadatos y omitir información estadística: – con esta estrategia, solo se usa la información
de los metadatos para decisiones sobre optimización. Por ejemplo, si hay más de un índice en una
tabla de origen, se utiliza el orden de clasificación de la base de datos de origen y el primer índice
se convierte en una clave de distribución.
• Omitir metadatos y usar información estadística: – con esta estrategia, las decisiones de
optimización se derivan solo de la información estadística. Esta estrategia se aplica únicamente a
las tablas y columnas para las que se proporcionan estadísticas. Para obtener más información,
Version 1.0
115
Schema Conversion Tool de AWS Guía del usuario
Recopilación o carga de estadísticas
• Usar metadatos y usar información estadística: – con esta estrategia, tanto los metadatos como las
estadísticas se usan para las decisiones de optimización.
4. Tras seleccionar su estrategia de optimización, podrá determinar qué reglas quiere usar. Puede elegir
entre las siguientes opciones:
Para cada regla, puede introducir un peso para la clave de ordenación y un peso para la clave de
distribución. AWS SCT utiliza los pesos que elija cuando convierte su esquema. Después, cuando
analice las claves sugeridas, si no está satisfecho con los resultados, puede volver aquí y cambiar la
configuración. Para obtener más información, consulte Administración y personalización de claves en
la Herramienta de conversión de esquemas de AWS (p. 123).
3. Seleccione un objeto de esquema del panel izquierdo de su proyecto y, a continuación, haga clic en la
pestaña Statistics. Puede revisar las estadísticas para el objeto.
Version 1.0
116
Schema Conversion Tool de AWS Guía del usuario
Creación de reglas de mapeo
Después, cuando analice las claves sugeridas, si no está satisfecho con los resultados, puede
recopilar estadísticas adicionales y repetir el procedimiento. Para obtener más información, consulte
Administración y personalización de claves en la Herramienta de conversión de esquemas de
AWS (p. 123).
Solo puede crear reglas de mapeo si el motor de la base de datos de origen y el de la de destino
son diferentes.
Version 1.0
117
Schema Conversion Tool de AWS Guía del usuario
Creación de reglas de mapeo
• Base de datos
• Esquema
• Tabla
• Columna
1. Seleccione Mapping Rules en el menú Settings. Aparecerá el cuadro de diálogo Mapping Rules. El
panel superior contiene reglas de mapeo (transformación).
Version 1.0
118
Schema Conversion Tool de AWS Guía del usuario
Visualización de reglas de mapeo para objetos
Los campos disponibles para la cláusula where son diferentes en función del tipo de objeto. Por
ejemplo, si el tipo de objeto es esquema, solo habrá un campo disponible, para el nombre del
esquema.
d. En Actions, seleccione el tipo de regla de mapeo que quiera crear.
e. En función del tipo de regla, escriba uno o dos valores adicionales. Por ejemplo, para cambiar
el nombre de un objeto, escriba el nuevo nombre del objeto. Para sustituir un prefijo, escriba el
prefijo anterior y el nuevo prefijo.
4. Tras haber configurado su regla de mapeo, seleccione Save para guardar su regla. También puede
seleccionar Cancel para cancelar los cambios.
5. Cuando haya acabado de agregar, editar y eliminar reglas, seleccione Save All para guardar todos los
cambios.
6. Seleccione Close para cerrar el cuadro de diálogo Mapping Rules.
Puede utilizar el icono de alternar para desactivar una regla de mapeo sin eliminarla. También puede
utilizar el icono de copia para duplicar una regla de mapeo existente. Puede utilizar el icono de eliminar
para borrar una regla de mapeo existente. Para guardar los cambios que realice en sus reglas de mapeo,
seleccione Save All.
Version 1.0
119
Schema Conversion Tool de AWS Guía del usuario
Conversión del esquema
datos de origen en el panel izquierdo. El esquema se presentan en un formato de vista de árbol y cada
nodo del árbol se carga progresivamente. Al seleccionar un nodo en la vista de árbol, AWS SCT solicita la
información del esquema de la base de datos de origen en ese momento.
Puede seleccionar elementos del esquema en su base de datos de origen y, después, convertir el
esquema en un esquema equivalente para el motor de la base de datos de su base de datos de destino.
Puede seleccionar cualquier elemento del esquema en su base de datos de origen para convertirlo. Si el
elemento del esquema que seleccione depende de un elemento principal, AWS SCT generará también el
esquema para el elemento principal. Por ejemplo, si selecciona una columna de una tabla para convertirla,
AWS SCT generará el esquema para la columna, la tabla en la que está la columna y la base de datos en
la que está la tabla.
Una vez que haya convertido el esquema de su base de datos de origen, puede elegir los elementos del
esquema en el panel izquierdo de su proyecto y ver el esquema convertido en los paneles centrales de
su proyecto. El panel inferior central muestra las propiedades y el comando SQL para crear el esquema
convertido, como se muestra a continuación.
Version 1.0
120
Schema Conversion Tool de AWS Guía del usuario
Edición del esquema convertido
Tras haber convertido el esquema, podrá guardar el proyecto. La información del esquema de su base de
datos de origen se guarda con su proyecto. Esta funcionalidad supone que puede trabajar sin conexión
sin estar conectado a su base de datos de origen. AWS SCT se conecta a su base de datos de origen
para actualizar el esquema en su proyecto si selecciona Refresh from Database (Actualizar desde base
de datos) para su base de datos de origen. Para obtener más información, consulte Actualización de un
esquema convertido en la Herramienta de conversión de esquemas de AWS (p. 125).
Puede crear un informe de evaluación de la migración de la base de datos para los elementos que no
se puedan convertir automáticamente. El informe de evaluación es útil para identificar y solucionar los
elementos del esquema que no se puedan convertir automáticamente. Para obtener más información,
consulte Creación de informes de evaluación con Herramienta de conversión de esquemas de AWS
(p. 83).
Cuando la AWS SCT genera un esquema convertido, no se aplica inmediatamente a la base de datos
de destino. El esquema convertido se almacena en el entorno local hasta que esté listo para aplicarlo
en la base de datos de destino. Para obtener más información, consulte Aplicación del esquema
convertido (p. 127).
Version 1.0
121
Schema Conversion Tool de AWS Guía del usuario
Eliminación de un esquema convertido
1. En el panel izquierdo que indica el esquema de la base de datos de origen, seleccione el elemento del
esquema para el que quiera editar el esquema convertido.
2. En el panel inferior central donde se muestra el esquema convertido para el elemento seleccionado,
haga clic en la pestaña SQL.
3. En el texto mostrado para la pestaña SQL, cambie el esquema según sea necesario. El esquema se
guardará automáticamente con su proyecto cuando lo actualice.
Los cambios que realice al esquema convertido se almacenan con su proyecto a medida que realiza las
actualizaciones. Si convierte un nuevo elemento de un esquema desde su base de datos de origen y ha
realizado actualizaciones al esquema previamente convertido para ese elemento, dichas actualizaciones
existentes se verán sustituidas por el elemento del esquema recientemente convertido, en función de su
base de datos de origen.
Version 1.0
122
Schema Conversion Tool de AWS Guía del usuario
Administración y personalización de claves
Para administrar claves, seleccione una tabla en su base de datos de destino y a continuación seleccione
la pestaña Key Management, como se muestra a continuación.
Version 1.0
123
Schema Conversion Tool de AWS Guía del usuario
Administración de conversiones manuales
El panel izquierdo contiene sugerencias claves, e incluye la puntuación de fiabilidad para cada sugerencia.
Puede seleccionar una de las sugerencias, o personalizar la clave editándola en el panel derecho.
Si las opciones de la clave no tienen el aspecto esperado, puede editar sus estrategias de optimización
y volver a intentar la conversión. Para obtener más información, consulte Selección de estrategias de
optimización y reglas de uso para la Herramienta de conversión de esquemas de AWS (p. 115).
Puede responder a los elementos de acción del informe de evaluación de las siguientes formas:
Version 1.0
124
Schema Conversion Tool de AWS Guía del usuario
Modificar su esquema de destino
de esquema actualizada. Después, puede convertir el esquema actualizado y generar de nuevo el informe
de evaluación de la migración de la base de datos. Los elementos de acción ya no aparecen para los
elementos que hayan cambiado en el esquema de origen.
La ventaja de este proceso es que el esquema actualizado está siempre disponible al actualizar desde la
base de datos de origen.
El esquema que escrito en la base de datos de destino no contendrá los elementos que no se hayan
podido convertir automáticamente. Después de aplicar el esquema a la base de datos de destino, puede
crear manualmente esquemas en dicha base de datos que sean equivalentes a los de la base de datos de
origen. Los elementos de acción en el informe de evaluación de la migración de la base de datos contienen
sugerencias sobre cómo crear un esquema equivalente.
Warning
Si crea manualmente esquemas en su base de datos de destino, guarde una copia de cualquier
operación manual que haya realizado. Si aplica el esquema convertido desde su proyecto a su
base de datos de destino de nuevo, se sobrescribirá el trabajo manual que haya realizado.
En algunos casos, no podrá crear un esquema equivalente en la base de datos de destino. Tal vez tenga
que rediseñar una parte de la aplicación y de la base de datos para usar la funcionalidad disponible en el
motor de base de datos para la base de datos de destino. En otros casos, puede omitir simplemente el
esquema que no se pueda convertir automáticamente.
• Source (Origen): – si actualiza el esquema para su base de datos de origen, AWS SCT sustituye el
esquema de su proyecto con el último esquema de su base de datos de origen. Con esta funcionalidad,
puede actualizar su proyecto si se ha modificado el esquema de la base de datos de origen.
• Target (Destino): – si actualiza el esquema para su base de datos de destino, AWS SCT sustituye el
esquema de su proyecto con el último esquema de su base de datos de destino. Si no ha aplicado
ningún esquema a su base de datos de destino, AWS SCT elimina el esquema convertido de su
proyecto. A continuación, puede convertir el esquema de la base de datos de origen a una base de
datos de destino limpia.
El esquema en su proyecto de la AWS SCT se actualiza seleccionando Refresh from Database (Actualizar
desde base de datos), como se muestra a continuación.
Version 1.0
125
Schema Conversion Tool de AWS Guía del usuario
Guardado y aplicación de un esquema
Si lo desea, puede hacer que la herramienta guarde su esquema convertido en un archivo como script
SQL antes de aplicar el esquema a su base de datos de destino. También puede hacer que la herramienta
aplique el esquema convertido directamente a su base de datos de destino.
Version 1.0
126
Schema Conversion Tool de AWS Guía del usuario
Aplicación del esquema convertido
Para guardar el esquema convertido como scripts SQL, abra el menú contextual (clic secundario) para el
elemento del esquema y seleccione Save as SQL, como se muestra a continuación.
Version 1.0
127
Schema Conversion Tool de AWS Guía del usuario
Esquema del paquete de extensión
No modifique el esquema del paquete de extensión, ya que podría encontrarse resultados imprevistos
en el esquema convertido creado en la instancia de base de datos de destino. Cuando el esquema haya
migrado totalmente a su instancia de base de datos de destino y ya no necesite la AWS SCT, puede
eliminar el esquema del paquete de extensión.
• Greenplum: AWS_GREENPLUM_EXT
• Microsoft SQL Server: AWS_SQLSERVER_EXT
• Netezza: AWS_NETEZZA_EXT
• Oracle: AWS_ORACLE_EXT
• Teradata: AWS_TERADATA_EXT
• Vertica: AWS_VERTICA_EXT
Version 1.0
128
Schema Conversion Tool de AWS Guía del usuario
Bibliotecas Python
Para obtener más información, consulte Uso del paquete de extensión de la Herramienta de conversión de
esquemas de AWS (p. 196).
Bibliotecas Python
Para crear funciones personalizadas en Amazon Redshift, utilice el lenguaje Python. Utilice el paquete
de extensión de la AWS SCT para instalar bibliotecas python para su base de datos de Amazon Redshift.
Para obtener más información, consulte Uso del paquete de extensión de la Herramienta de conversión de
esquemas de AWS (p. 196).
1. Tome una instantánea manual de su clúster de Amazon Redshift como copia de seguridad. Puede
eliminar la instantánea después de que haya terminado la optimización de su clúster de Amazon
Redshift y probar los cambios efectuados. Para obtener más información, consulte Amazon Redshift
Snapshots.
2. Seleccione un objeto de esquema para convertir en el panel izquierdo del proyecto. Abra el menú
contextual (clic secundario) para el objeto y seleccione Collect Statistics.
AWS SCT utiliza las estadísticas para realizar sugerencias para las claves de ordenación y
distribución.
3. Seleccione un objeto de esquema para optimizar en el panel izquierdo del proyecto. Abra el menú
contextual (clic secundario) para el objeto y seleccione Run Optimization.
Version 1.0
129
Schema Conversion Tool de AWS Guía del usuario
Optimización de su base de datos de Amazon Redshift
El panel izquierdo contiene sugerencias claves, e incluye la puntuación de fiabilidad para cada
sugerencia. Puede seleccionar una de las sugerencias, o personalizar la clave editándola en el panel
derecho.
5. Puede crear un informe que contenga las sugerencias de optimización. Para crear el informe, haga lo
siguiente:
a. Seleccione un objeto de esquema que haya optimizado en el panel izquierdo del proyecto. Abra el
menú contextual (clic secundario) para el objeto y seleccione Create Report.
Version 1.0
130
Schema Conversion Tool de AWS Guía del usuario
Version 1.0
131
Schema Conversion Tool de AWS Guía del usuario
En la actualidad, solo se admiten las conversiones de Oracle ETL y Teradata BTEQ a AWS Glue.
Temas
• Requisitos previos (p. 133)
• Descripción de AWS Glue Data Catalog (p. 133)
• Limitaciones para la conversión con AWS Glue (p. 133)
• Conversión con AWS Glue en la interfaz de usuario de AWS SCT (p. 134)
• Conversión con la API de Python para AWS Glue (p. 139)
Version 1.0
132
Schema Conversion Tool de AWS Guía del usuario
Requisitos previos
Requisitos previos
Antes de comenzar, haga lo siguiente:
El AWS Glue Data Catalog es un índice para las métricas de tiempo de ejecución, esquema y ubicación
de sus datos. Al trabajar con AWS Glue y AWS SCT, AWS Glue Data Catalog incluye referencias a datos
que se utilizan como orígenes y destinos de sus trabajos de ETL en AWS Glue. Para crear su almacén de
datos, debe catalogar estos datos.
Puede usar la información del Data Catalog para crear y monitorizar sus trabajos de ETL. Normalmente,
deberá ejecutar un rastreador para realizar un inventario de los datos incluidos en sus almacenes de datos,
pero existen otras formas de añadir tablas de metadatos en su Data Catalog.
Al definir una tabla en su Data Catalog, puede añadirla a una base de datos. Las bases de datos en AWS
Glue se usan para organizar las tablas.
Version 1.0
133
Schema Conversion Tool de AWS Guía del usuario
Conversión con AWS Glue en la
interfaz de usuario de AWS SCT
Temas
• Paso 1: Crear un proyecto nuevo (p. 135)
Version 1.0
134
Schema Conversion Tool de AWS Guía del usuario
Paso 1: Crear un proyecto nuevo
Elija Data warehouse (OLAP) (Almacén de datos, OLAP) y, a continuación, los motores de base de datos
de origen y de destino.
Compruebe que ha activado Use AWS Glue (Usar AWS Glue) en la configuración del proyecto. Para ver la
configuración del proyecto, elija Settings (Configuración) y, a continuación, Project Settings (Configuración
de proyecto).
Version 1.0
135
Schema Conversion Tool de AWS Guía del usuario
Paso 1: Crear un proyecto nuevo
Para finalizar la preparación de la importación de su ETL, establezca conexiones con sus motores de base
de datos de origen y de destino. Elija los elementos del menú que comienzan con las palabras Connect to
(Conectar con). Estas etiquetas se personalizan en función de los motores de base de datos que eligió al
crear el proyecto. Por ejemplo, si eligió Oracle y Amazon Redshift, el menú mostrará las opciones Connect
to Oracle (Conectar con Oracle) y Connect to Amazon Redshift (Conectar con Amazon Redshift).
Version 1.0
136
Schema Conversion Tool de AWS Guía del usuario
Paso 1: Crear un proyecto nuevo
Note
AWS Glue crea una base de datos en el servidor de base de datos de origen y también en el servidor de
base de datos de destino para ayudar en la conversión de ETL. La base de datos en el servidor de destino
contiene el AWS Glue Data Catalog. Para localizar objetos específicos, utilice el botón de búsqueda en los
paneles de origen o destino.
Para ver cómo se convierte un objeto específico, busque un elemento que desee convertir y seleccione
Convert schema (Convertir esquema) desde el menú contextual ( botón derecho del ratón). AWS SCT lo
transformará en un script.
Version 1.0
137
Schema Conversion Tool de AWS Guía del usuario
Paso 2: Crear un trabajo de AWS Glue
La primera pestaña, Design Data Flow (Diseñar flujo de datos), le permite elegir una estrategia de
ejecución y la lista de scripts que desea incluir en este trabajo. Puede elegir los parámetros de cada script.
También puede reorganizar los scripts de manera que se ejecuten en el orden correcto.
En el segundo paso, o pestaña, del asistente, puede asignar un nombre al trabajo y configurar
directamente las opciones para AWS Glue. En esta pantalla puede configurar las siguientes opciones:
• Rol de IAM
• Nombres de archivos de script y rutas de archivo
• Cifrar el script mediante el cifrado en el servidor con claves administradas por Amazon S3 (SSE-S3)
• Directorio temporal
• Ruta de la biblioteca Python generada
• Ruta de la biblioteca Python del usuario
• Ruta de los archivos .jar dependientes (ruta para los archivos .jar dependientes)
• Ruta de los archivos a los que se hace referencia
• DPU simultáneas para cada trabajo ejecutado
• Simultaneidad máxima
• Tiempo de espera del trabajo (en minutos)
• Umbral de notificación de retraso (en minutos)
• Número de reintentos
• Configuración de seguridad
• Cifrado en el servidor
En el tercer paso, o pestaña, elija la conexión configurada con el punto de enlace de destino.
Version 1.0
138
Schema Conversion Tool de AWS Guía del usuario
Conversión con la API de Python para AWS Glue
Tras finalizar la configuración del trabajo, este se muestra en los trabajos de ETL en el AWS Glue Data
Catalog. Si elige el trabajo, se mostrará la configuración para que pueda revisarla o editarla. Para crear
un nuevo trabajo en AWS Glue, elija Create AWS Glue Job (Crear trabajo de AWS Glue) en el menú
contextual (botón derecho del ratón) del trabajo. Al hacerlo se aplica la definición de esquema. Para
actualizar la visualización, elija Refresh from database (Actualizar desde la base de datos) en el menú
contextual (botón derecho del ratón).
En este momento, podrá ver su trabajo en la consola de AWS Glue. Para ello, inicie sesión en la Consola
de administración de AWS y abra la consola de AWS Glue en https://console.aws.amazon.com/glue/.
Puede probar el nuevo trabajo para asegurarse de que funciona correctamente. Compruebe los datos de la
tabla de origen y, a continuación, verifique que la tabla de destino esté vacía. Ejecute el trabajo y vuelva a
realizar la comprobación. Puede ver los registros de errores desde la consola de AWS Glue.
En el ejemplo siguiente se muestra el método create_database de la API de Python para AWS Glue.
response = client.create_database(
DatabaseInput={
'Name': 'database_name’,
'Description': 'description',
'LocationUri': 'string',
'Parameters': {
'parameter-name': 'parameter value'
}
}
)
Si utiliza Amazon Redshift, el nombre de la base de datos se forma tal y como se indica a continuación.
{redshift_cluster_name}_{redshift_database_name}_{redshift_schema_name}
rsdbb03.apq1mpqso.us-west-2.redshift.amazonaws.com
A continuación, se muestra un ejemplo de un nombre correcto de la base de datos. En este caso rsdbb03
es el nombre, que es la primera parte del nombre completo del punto de enlace del clúster. La base de
datos se denomina dev y el esquema es ora_glue.
rsdbb03_dev_ora_glue
Version 1.0
139
Schema Conversion Tool de AWS Guía del usuario
Paso 3: Crear un rastreador de AWS Glue
En el ejemplo siguiente se muestra el uso del método create_connection de la API de Python para
AWS Glue.
response = client.create_connection(
ConnectionInput={
'Name': 'Redshift_abcde03.aabbcc112233.us-west-2.redshift.amazonaws.com_dev',
'Description': 'Created from SCT',
'ConnectionType': 'JDBC',
'ConnectionProperties': {
'JDBC_CONNECTION_URL': 'jdbc:redshift://aabbcc03.aabbcc112233.us-
west-2.redshift.amazonaws.com:5439/dev',
'USERNAME': 'user_name',
'PASSWORD': 'password'
},
'PhysicalConnectionRequirements': {
'AvailabilityZone': 'us-west-2c',
'SubnetId': 'subnet-a1b23c45',
'SecurityGroupIdList': [
'sg-000a2b3c', 'sg-1a230b4c', 'sg-aba12c3d', 'sg-1abb2345'
]
}
}
)
• Name (cadena UTF-8) obligatorio. En Amazon Redshift, el nombre de la conexión se forma tal y como se
indica a continuación: Redshift_{Endpoint-name}_{redshift-database-name}, por ejemplo:
Redshift_abcde03_dev
• Description (cadena UTF-8): su descripción de la conexión.
• ConnectionType (UTF-8) obligatorio: el tipo de conexión. En la actualidad, solo se admite JDBC; SFTP
es incompatible.
• ConnectionProperties (dict) obligatorias: una lista de pares clave-valor utilizados como parámetros
para esta conexión, incluida la URL de conexión de JDBC, el nombre de usuario y la contraseña.
• PhysicalConnectionRequirements (dict): requisitos de conexión física, que incluyen lo siguiente:
• SubnetId (cadena UTF-8): el ID de la subred que utiliza la conexión.
• SecurityGroupIdList (lista): lista de ID de grupo de seguridad que usa la conexión.
• AvailabilityZone (cadena UTF-8) obligatoria: la zona de disponibilidad que contiene el punto de
enlace. Este parámetro ha quedado obsoleto.
Version 1.0
140
Schema Conversion Tool de AWS Guía del usuario
Paso 3: Crear un rastreador de AWS Glue
En el siguiente ejemplo se elimina un rastreador existente y, a continuación, se crea uno nuevo con la API
de Python para AWS Glue.
response = client.delete_crawler(
Name='crawler_name'
)
response = client.create_crawler(
Name='crawler_name',
Role= ‘IAM_role’,
DatabaseName='database_name’,
Description='string',
Targets={
'S3Targets': [
{
'Path': 'string',
'Exclusions': [
'string',
]
},
],
'JdbcTargets': [
{
'ConnectionName': ‘ConnectionName’,
'Path': ‘Include_path’,
'Exclusions': [
'string',
]
},
]
},
Schedule='string',
Classifiers=[
'string',
],
TablePrefix='string',
SchemaChangePolicy={
'UpdateBehavior': 'LOG'|'UPDATE_IN_DATABASE',
'DeleteBehavior': 'LOG'|'DELETE_FROM_DATABASE'|'DEPRECATE_IN_DATABASE'
},
Configuration='string'
)
Después de crear el rastreador, ejecute un rastreador que se conecte a uno o varios almacenes de datos,
determine las estructuras de datos y escriba tablas en el Data Catalog. Puede ejecutar su rastreador de
manera programada, tal y como se muestra a continuación.
response = client.start_crawler(
Name='string'
)
Debido a que estamos utilizando Amazon Redshift, nuestro objetivo en este ejemplo, los tipos de datos de
Amazon Redshift se asignan al tipo de datos Glue de la siguiente forma después de ejecutar el rastreador.
smalint smallint
Version 1.0
141
Schema Conversion Tool de AWS Guía del usuario
Paso 3: Crear un rastreador de AWS Glue
integer int
bigint bigint
decimal decimal(18,0)
decimal(p,s) decimal(p,s)
real double
booleano booleano
char string
varchar string
varchar(n) string
fecha fecha
timestamp timestamp
timestamptz timestamp
Version 1.0
142
Schema Conversion Tool de AWS Guía del usuario
Uso de un agente de replicación
de AWS SCT con AWS DMS
Cuando se trabaja con Amazon Snowball, el agente de AWS SCT extrae los datos en el dispositivo
Amazon Snowball. El dispositivo se envía a AWS y los datos se cargan en un bucket de Amazon S3.
Durante este tiempo, el agente de AWS SCT sigue en ejecución. A continuación, el agente obtiene los
datos de Amazon S3 y los copia en el punto de enlace de destino.
Para obtener más información, consulte Uso de agentes de extracción de datos (p. 144).
Para obtener más información, consulte Uso de agentes de extracción de datos (p. 144).
Version 1.0
143
Schema Conversion Tool de AWS Guía del usuario
Migración de datos desde un almacén
de datos local a Amazon Redshift
En los siguientes temas se describen estas situaciones de forma más detallada y se explica cómo utilizar
los agentes de la AWS SCT durante el proceso de migración.
Temas
• Migración de datos desde un almacén de datos local a Amazon Redshift (p. 144)
• Migración de datos desde Apache Cassandra a Amazon DynamoDB (p. 168)
Las migraciones de datos a gran escala pueden incluir muchos terabytes de información y pueden verse
ralentizadas por el desempeño de la red y la gran cantidad de datos que hay que mover. AWS Snowball
es un servicio de AWS que puede utilizar para transferir datos a la nube a velocidades superiores a las
de la red mediante un dispositivo propiedad de AWS. Un dispositivo AWS Snowball puede contener hasta
80 TB de datos y un dispositivo AWS Snowball Edge puede contener hasta 100 TB. Usa el cifrado de 256
bits y un Módulo de plataforma segura (TPM) estándar del sector diseñado para garantizar la seguridad y
la cadena de custodia completa de los datos. AWS SCT funciona con dispositivos AWS Snowball y AWS
Snowball Edge, que se denominarán dispositivos AWS Snowball en el resto de esta guía.
Cuando se utiliza AWS SCT y un dispositivo AWS Snowball, los datos se migran en dos etapas. En primer
lugar, se utiliza AWS SCT para procesar los datos a nivel local y, a continuación, se mueven al dispositivo
AWS Snowball. A continuación, se envía el dispositivo a AWS mediante el proceso de AWS Snowball y
AWS carga automáticamente los datos en un bucket de Amazon S3. Después, cuando los datos están
disponibles en Amazon S3, se usa AWS SCT para migrar los datos a Amazon Redshift. Los agentes de
extracción de datos pueden trabajar en segundo plano mientras la AWS SCT está cerrada.
Version 1.0
144
Schema Conversion Tool de AWS Guía del usuario
Migración de datos desde un almacén
de datos local a Amazon Redshift
En la actualidad, los agentes de extracción de datos se admiten para los siguientes data warehouses de
origen:
Puede conectarse a puntos de enlace de FIPS para Amazon Redshift si tiene que cumplir con los
requisitos de seguridad del Estándar federal de procesamiento de la información. Hay puntos de enlace de
FIPS en las siguientes regiones de AWS:
Utilice la información en los temas siguientes para aprender a trabajar con los agentes de extracción de
datos.
Temas
• Configuración de requisitos previos para Amazon S3 y seguridad para los agentes de extracción de
datos (p. 146)
• Instalación de agentes de extracción (p. 147)
• Registro de agentes de extracción con la Herramienta de conversión de esquemas de AWS (p. 150)
Version 1.0
145
Schema Conversion Tool de AWS Guía del usuario
Configuración de requisitos previos
Configuración de Amazon S3
Después de que sus agentes extraigan los datos, los cargarán en el bucket de Amazon S3. Antes
de continuar, debe proporcionar las credenciales para conectarse a su cuenta de AWS y a su bucket
de Amazon S3. Puede almacenar la información de sus credenciales y su bucket en un perfil en la
configuración de la aplicación global y, a continuación, asociar el perfil con su proyecto de AWS SCT. Si
fuera necesario, seleccione Global Settings para crear un nuevo perfil. Para obtener más información,
consulte Uso de los perfiles del servicio de AWS en la Herramienta de conversión de esquemas de
AWS (p. 13).
Configuración de seguridad
La Herramienta de conversión de esquemas de AWS y los agentes de extracción pueden comunicarse a
través de la capa de conexión segura (SSL). Para habilitar la SSL, configure un almacén de confianza y un
almacén de claves.
Version 1.0
146
Schema Conversion Tool de AWS Guía del usuario
Instalación de agentes
3. Seleccione Generate Trust and Key Store o haga clic en Select existing Trust and Key Store.
Si selecciona Generate Trust and Key Store, a continuación tendrá que especificar el nombre y
la contraseña de los almacenes de confianza y de claves y la ruta a la ubicación de los archivos
generados. Utilizará estos archivos en pasos posteriores.
Si selecciona Select existing Trust and Key Store, después especificará la contraseña y el nombre del
archivo para los almacenes de confianza y de claves. Utilizará estos archivos en pasos posteriores.
4. Tras haber especificado el almacén de confianza y el almacén de claves, seleccione OK para cerrar el
cuadro de diálogo Global Settings.
En la actualidad, los agentes de extracción son compatibles con los siguientes sistemas operativos:
• macOS
• Microsoft Windows
• Red Hat Enterprise Linux (RHEL) 6.0
• Ubuntu Linux (versión 14.04 y posteriores)
Version 1.0
147
Schema Conversion Tool de AWS Guía del usuario
Instalación de agentes
Utilice el siguiente procedimiento para instalar agentes de extracción. Repita este procedimiento para cada
equipo en el que desee instalar un agente de extracción.
1. Si aún no ha descargado el archivo del instalador de la AWS SCT, siga las instrucciones de
Instalación, verificación y actualización de Herramienta de conversión de esquemas de AWS (p. 4)
para descargarlo. El archivo .zip que contiene el archivo del instalador de la AWS SCT también
contiene el archivo del instalador del agente de extracción.
2. Localice el archivo del instalador para su agente de extracción en una subcarpeta llamada agentes. El
archivo correcto para el sistema operativo del equipo en el que quiera instalar el agente de extracción
se muestra a continuación.
macOS aws-schema-conversion-tool-extractor-1.0.build-
number.dmg
RHEL aws-schema-conversion-tool-extractor-1.0.build-
number.x86_64.rpm
3. Para instalar el agente de extracción en un equipo independiente, copie el archivo del instalador en el
nuevo equipo.
4. Ejecute el archivo del instalador. Utilice las instrucciones para su sistema operativo, que se muestran a
continuación.
Arrastre aws-schema-conversion-tool-extractor-1.0.build-
number.dmg a la carpeta Applications.
5. Instale los controladores de Java Database Connectivity (JDBC) para el motor de base de datos de
origen. Para obtener instrucciones y enlaces de descarga, consulte Instalación de los controladores
de bases de datos necesarios (p. 8). Siga las instrucciones para el motor de base de datos de origen,
no solo para el motor de base de datos de destino.
Version 1.0
148
Schema Conversion Tool de AWS Guía del usuario
Instalación de agentes
6. Copie los almacenes SSL de confianza y de claves (.zip o archivos individuales) que generó en el
procedimiento anterior. Si copia el archivo .zip a un nuevo equipo, extraiga los archivos individuales
del archivo .zip en el nuevo equipo.
Puede colocar los archivos en cualquier lugar que desee. No obstante, tenga en cuenta las
ubicaciones, ya que en un futuro procedimiento le dirá al agente dónde encontrar los archivos.
• Desde la ubicación en la que haya instalado el agente, ejecute el programa de instalación. Para RHEL
y Ubuntu, el archivo se llamará sct-extractor-setup.sh. Para macOS y Microsoft Windows,
el archivo se llamará AWS SCT Data Extractor Agent y podrá hacer doble clic sobre él para
ejecutarlo.
port=8888
vendor=ORACLE
driver.jars=<driver path>/Install/Drivers/ojdbc7.jar
location=<output path>/dmt/8888/out
extractor.log.folder=<log path>/dmt/8888/log
extractor.storage.folder=<storage path>/dmt/8888/storage
extractor.start.fetch.size=20000
extractor.out.file.size=10485760
ssl.option=OFF
#ssl.option=ON
#ssl.keystore.path=<key store path>/dmt/8888/vault/keystore
#ssl.truststore.path=<trust store path>/dmt/8888/vault/truststore
Version 1.0
149
Schema Conversion Tool de AWS Guía del usuario
Registro de agentes
Los agentes de extracción actúan en escucha. Cuando inicia un agente con este procedimiento, el agente
comienza a escuchar para obtener instrucciones. Enviará a los agentes instrucciones para extraer los
datos de su data warehouse en una sección posterior.
• En el equipo en el que haya instalado el agente de extracción, ejecute el comando que aparezca a
continuación para su sistema operativo.
Para comprobar el estado del agente, ejecute el mismo comando, pero sustituya start por status.
Para detener un agente, ejecute el mismo comando, pero sustituya start por stop.
Utilice el siguiente procedimiento para registrar los agentes de extracción con su proyecto de la AWS SCT.
Version 1.0
150
Schema Conversion Tool de AWS Guía del usuario
Ocultar y recuperar información de un agente de AWS SCT
Después de registrar un agente con un proyecto de la AWS SCT, no puede registrar el mismo
agente con otro proyecto diferente. Si ya no utiliza un agente en un proyecto de la AWS SCT,
puede anularlo. A continuación, puede registrarlo con otro proyecto diferente.
4. Introduzca la información en el cuadro de diálogo New Agent Registration:
Como diferentes usuarios pueden configurar y ejecutar el agente, la ruta de seed.dat se almacena en el
parámetro {extractor.private.folder} del archivo settings.properties. Cuando se inicia el
agente, puede utilizar esta ruta para encontrar el archivo seed.dat y obtener acceso a la información del
almacén de claves y confianza de la base de datos correspondiente.
Version 1.0
151
Schema Conversion Tool de AWS Guía del usuario
Ocultar y recuperar información de un agente de AWS SCT
Es posible que necesite recuperar las contraseñas que un agente ha almacenado en estos casos:
• Si el usuario pierde el archivo seed.dat y la ubicación y el puerto del agente de la AWS SCT no han
cambiado.
• Si el usuario pierde el archivo seed.dat y la ubicación y el puerto del agente de la AWS SCT han
cambiado. En este caso, el cambio suele ocurrir porque el agente se ha migrado a otro host o puerto y la
información del archivo seed.dat ya no es válida.
En estos casos, si se inicia un agente sin SSL, este se inicia y después obtiene acceso al almacenamiento
del agente creado con anterioridad. A continuación adopta el estado Waiting for recovery.
No obstante, en estos casos, si se inicia un agente con SSL, no puede reiniciarlo. Esto se debe a
que el agente no puede descifrar las contraseñas para los certificados almacenados en el archivo
settings.properties. En este tipo de inicio, el agente no se puede iniciar. Se escribe un error similar
al siguiente en el archivo log: "El agente no se pudo iniciar con el modo SSL habilitado. Vuelva configurar
el agente. Motivo: La contraseña de keystore es incorrecta".
Para solucionar este problema, cree un nuevo agente y configúrelo de forma que use las contraseñas
existentes para obtener acceso a los certificados SSL. Para ello, siga el procedimiento que se indica a
continuación.
Después de realizar este procedimiento, el agente debe ejecutarse y adoptar el estado Waiting for recovery
(Esperando recuperación). AWS SCT envía automáticamente las contraseñas necesarias a un agente en
el estado Waiting for recovery (Esperando recuperación). Cuando el agente tiene las contraseñas, reinicia
todas las tareas. No se requiere ninguna acción adicional por parte de SCT.
Para volver a configurar el agente y restaurar las contraseñas para obtener acceso a los
certificados SSL
En este momento, AWS SCT todavía intenta obtener acceso al antiguo extractor en el host y puertos
antiguos. Por consiguiente, el extractor inaccesible obtiene el estado FAILED. A continuación, puede
cambiar el host y el puerto.
4. Modifique el host, el puerto o ambas cosas del agente anterior mediante el comando Modify para
redirigir el flujo de solicitudes al nuevo agente.
Cuando AWS SCT puede hacer ping en el nuevo agente, AWS SCT recibe el estado Waiting for
recovery (Esperando recuperación) del agente. A continuación, AWS SCT recupera automáticamente las
contraseñas del agente.
Cada agente que trabaja con el almacenamiento del agente actualiza un archivo especial llamado
storage.lck ubicado en {output.folder}\{agentName}\storage\. Este archivo contiene
el ID de red del agente y el tiempo hasta que el almacenamiento está bloqueado. Cuando el agente
trabaja con el almacenamiento del agente, actualiza el archivo storage.lck y amplía el arrendamiento
del almacenamiento en 10 minutos cada 5 minutos. Ninguna otra instancia puede trabajar con el
almacenamiento de este agente hasta que finalice el arrendamiento.
Version 1.0
152
Schema Conversion Tool de AWS Guía del usuario
Creación de filtros de extracción de datos
Puede crear filtros de extracción de datos y guardar los filtros como parte de su proyecto. Con el proyecto
abierto, utilice el siguiente procedimiento para crear filtros de extracción de datos.
1. En el menú Settings, seleccione Mapping Rules. Aparecerá el cuadro de diálogo Mapping Rules. El
panel superior contiene reglas de transformación y el panel inferior contiene reglas de filtrado.
2. En el panel Filtering Rules, seleccione Add new rule.
3. Configure su filtro:
Puede utilizar el icono de alternar para desactivar un filtro sin eliminarlo. También puede utilizar el icono
de copia para duplicar un filtro existente. Para borrar un filtro existente, utilice el icono de eliminar. Para
guardar los cambios que realice en sus filtros, seleccione Save All.
Estas ventajas tienen que ver con cómo la AWS SCT crea las consultas de extracción de datos. En
algunos casos, la AWS SCT utiliza la función analítica DENSE_RANK en estas consultas. Sin embargo,
DENSE_RANK puede consumir mucho tiempo y recursos del servidor para ordenar el conjunto de datos
que resultan de la extracción, de modo que si la AWS SCT puede trabajar sin ella, así lo hace.
Version 1.0
153
Schema Conversion Tool de AWS Guía del usuario
Creación, ejecución y monitorización
de una tarea de AWS SCT
• Never use sorting (No utilizar nunca la ordenación) –: El agente de extracción no utiliza la función
analítica DENSE_RANK y se reinicia desde el principio si se produce un error.
• Use sorting if possible (Utilizar la ordenación si es posible) –: El agente de extracción utiliza
DENSE_RANK si la tabla tiene una clave primaria o una restricción única.
• Use sorting after first fail (recommended) [Utilizar la ordenación después del primer error
(recomendado)] – El agente de extracción intenta primero obtener los datos sin usar DENSE_RANK.
Si el primer intento falla, el agente de extracción reconstruye la consulta mediante DENSE_RANK y
conserva su ubicación en caso de error.
4. Establezca parámetros adicionales, como se describe a continuación, y seleccione Create para crear
la tarea de extracción de datos.
Version 1.0
154
Schema Conversion Tool de AWS Guía del usuario
Creación, ejecución y monitorización
de una tarea de AWS SCT
Puede seleccionar todas las tablas, pero no se lo recomendamos por motivos de desempeño. Le
recomendamos que cree varias tareas para varias tablas basadas en el tamaño de las tablas en el
data warehouse.
2. Abra el menú contextual (clic secundario) para cada tabla y seleccione Create Task. Se abre el cuadro
de diálogo Create Local Task como se muestra a continuación.
• Extract Only (Solo extraer) –: extrae los datos y los guarda en sus carpetas de trabajo locales.
• Extract and Upload (Extraer y cargar) –: extrae los datos y los carga en Amazon S3.
• Extract, Upload and Copy (Extraer, cargar y copiar) –: extrae los datos, los carga a Amazon S3 y los
copia en el almacén de datos de Amazon Redshift.
5. Seleccione Extract LOBs para extraer grandes objetos. Si no es necesario extraer objetos grandes,
puede quitar la marca de selección de la casilla. Esto reduce la cantidad de datos que extrae.
6. Si desea ver información detallada sobre una tarea, seleccione Enable Task Logging. Puede utilizar el
registro de tareas para depurar problemas.
Si habilita el registro de tareas, seleccione el nivel de detalle que desea ver. Los niveles son los
siguientes y cada nivel incluye todos los mensajes del nivel anterior:
Version 1.0
155
Schema Conversion Tool de AWS Guía del usuario
Extracción de datos con un dispositivo AWS Snowball
3. Seleccione una tarea en la cuadrícula superior y amplíela. En función del modo de migración que elija,
verá la tarea dividida en Extraer, Upload y Copy.
4. Para comenzar una tarea, seleccione Start para esa tarea. Puede monitorizar el estado de sus tareas
mientras están en ejecución. Las subtareas se ejecutan en paralelo. Las funciones de extracción,
carga y copia también se ejecutan en paralelo.
5. Si ha habilitado el registro al configurar la tarea, podrá ver el registro:
a. Seleccione Download Log. Aparecerá un mensaje con el nombre de la carpeta que contiene el
archivo de registro. Omita el mensaje.
b. Aparecerá un enlace en la pestaña Task details. Seleccione el enlace para abrir la carpeta que
contiene el archivo de registro.
Puede cerrar la AWS SCT y sus agentes y tareas seguirán ejecutándose. Puede volver a abrir la AWS
SCT en otro momento para comprobar el estado de sus tareas y consultar los registros de tareas.
Version 1.0
156
Schema Conversion Tool de AWS Guía del usuario
Extracción de datos con un dispositivo AWS Snowball
Las secciones que siguen a esta información general proporcionan una guía paso a paso para cada una
de estas tareas. El procedimiento se supone que ha instalado AWS SCT y que ha configurado y registrado
un agente de extracción de datos en una máquina dedicada.
Los siguientes pasos deben producirse para migrar datos desde un almacén de datos local a un almacén
de datos de AWS con AWS Snowball.
1. Cree un trabajo de AWS Snowball utilizando la consola de AWS Snowball. Para obtener más
información, consulte Create an Import Job en la documentación de AWS Snowball.
2. Desbloquee el dispositivo AWS Snowball Edge mediante la máquina Linux dedicada local.
3. Cree un nuevo proyecto en AWS SCT mediante el agente de extracción de datos registrado.
4. Instale el controlador de base de datos para la base de datos de origen en la máquina dedicada en la
que instaló el extractor de datos.
5. Cree y establezca permisos para que el bucket de Amazon S3 los utilice.
6. Cree Local & DMS Task en SCT.
7. Ejecute y monitoree la Local & DMS Task en SCT.
8. Ejecute la tarea de AWS SCT y monitoree el progreso en SCT.
Por ejemplo, el siguiente comando muestra el bucket de Amazon S3 utilizado por el dispositivo.
1. Inicie AWS SCT y elija New Project para File. Aparece el cuadro de diálogo New Project.
2. Agregue la siguiente información del proyecto.
Version 1.0
157
Schema Conversion Tool de AWS Guía del usuario
Extracción de datos con un dispositivo AWS Snowball
Para reiniciar el agente de DMS después de la instalación del controlador de base de datos, cambie el
directorio de trabajo a <product_dir>/bin y utilice los pasos que se enumeran a continuación para
cada base de datos de origen.
cd <product_dir>/bin
./arep.ctl stop
./arep.ctl start
Instale Oracle Instant Client para Linux (x86-64) versión 11.2.0.3.0 o posterior.
Además, la variable de entorno LD_LIBRARY_PATH debe anexarse con el directorio lib de Oracle y
añadirse al script site_arep_login.sh bajo la carpeta lib de la instalación. Añada este script si no existe.
Version 1.0
158
Schema Conversion Tool de AWS Guía del usuario
Extracción de datos con un dispositivo AWS Snowball
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/microsoft/msodbcsql/lib64/
DriverManagerEncoding=UTF-16
ODBCInstLib=libodbcinst.so
export SYBASE_HOME=/opt/sap
export
LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$SYBASE_HOME/
DataAccess64/ODBC/lib:$SYBASE_HOME/DataAccess/ODBC/
lib:$SYBASE_HOME/OCS-16_0/lib:$SYBASE_HOME/OCS-16_0/
lib3p64:$SYBASE_HOME/OCS-16_0/lib3p
[Sybase]
Driver=/opt/sap/DataAccess64/ODBC/lib/libsybdrvodb.so
Description=Sybase ODBC driver
Asegúrese de que el archivo /etc/odbcinst.ini contiene una entrada para MySQL, como en el siguiente
ejemplo
Version 1.0
159
Schema Conversion Tool de AWS Guía del usuario
Extracción de datos con un dispositivo AWS Snowball
Asegúrese de que el archivo /etc/odbcinst.ini contiene una entrada para PostgreSQL, como en el
siguiente ejemplo
[PostgreSQL]
Description = PostgreSQL ODBC driver
Driver = /usr/pgsql-9.4/lib/psqlodbc.so
Setup = /usr/pgsql-9.4/lib/psqlodbcw.so
Debug = 0
CommLog = 1
UsageCount = 2
1. Inicie AWS SCT, elija View y, a continuación, elija Database Migration View (Local & DMS).
Version 1.0
160
Schema Conversion Tool de AWS Guía del usuario
Extracción de datos con un dispositivo AWS Snowball
Target table preparation mode Elija el modo de preparación que desea utilizar.
Rol de IAM Elija el rol de IAM predefinido que tiene permisos para
acceder al bucket de Amazon S3 y a la base de datos
de destino. Para obtener más información acerca de los
permisos necesarios para acceder a un bucket de Amazon
S3, consulte Configuración de Amazon S3 (p. 146).
Version 1.0
161
Schema Conversion Tool de AWS Guía del usuario
Resultado de la tarea de extracción de datos
Local AWS S3 Access key Escriba la clave de acceso de AWS de la cuenta que utiliza
para la migración.
Local AWS S3 Secret key Escriba la clave secreta de AWS de la cuenta que utiliza
para la migración.
4. Seleccione Create para crear la tarea.
Puede monitorear los registros del agente de DMS eligiendo Show log. Los detalles del registro incluyen
los registros del servidor del agente (Agent Log) y de la tarea de ejecución local (Task Log). Dado que el
servidor realiza la conectividad del punto de enlace (ya que la tarea local no se está ejecutando y no hay
registros de tareas), los problemas de conexión se enumeran bajo la pestaña Agent Log.
Extract, Upload Los datos ya están en su almacén de datos de Amazon Redshift. Puede verificar que
and Copy los datos están ahí y empezar a utilizarlos. Para obtener más información, consulte la
sección Conexión a clústeres desde herramientas cliente y códigos.
Version 1.0
162
Schema Conversion Tool de AWS Guía del usuario
Resultado de la tarea de extracción de datos
Extract and Los agentes de extracción habrán guardado sus datos como archivos en el bucket de
Upload Amazon S3. Puede utilizar el comando COPY de Amazon Redshift para cargar sus
datos en Amazon Redshift. Para obtener más información, consulte la sección Carga
de datos desde Amazon S3 en la documentación de Amazon Redshift.
Extract Only Los agentes de extracción habrán guardado sus datos en su carpeta de trabajo. Copie
a mano sus datos en el bucket de Amazon S3 y, a continuación, proceda con las
instrucciones para Extract and Upload (Extraer y cargar).
Version 1.0
163
Schema Conversion Tool de AWS Guía del usuario
Uso de particiones virtuales
• El tipo de partición RANGE funciona con tipos de datos de fecha y hora y numéricos.
• El tipo de partición LIST funciona con tipos de datos de fecha y hora, numéricos y caracteres.
• El tipo de partición DATE AUTO SPLIT funciona con tipos de datos de fecha y hora.
La AWS SCT valida los valores que proporcione para crear una partición. Por ejemplo, si intenta realizar la
partición de una columna con tipos de datos NUMERIC pero proporciona valores de otro tipo de datos, la
AWS SCT produce un error.
Por ejemplo, puede crear varias particiones basadas en un intervalo de valores que proporcione. En el
siguiente ejemplo, se especifican los valores de partición para LO_TAX para crear varias particiones.
Opción Acción
Partition Type Seleccione RANGE. La interfaz de usuario del cuadro de diálogo cambia
en función del tipo que elija.
Version 1.0
164
Schema Conversion Tool de AWS Guía del usuario
Uso de particiones virtuales
Opción Acción
Valores Para añadir nuevos valores, escriba cada valor en el cuadro New Value y,
a continuación, elija el signo más para añadir el valor.
Load From File (Opcional) Escriba el nombre de un archivo .csv que contenga valores de
partición.
5. Seleccione OK.
Por ejemplo, puede crear varias particiones basadas en un valor que proporcione. En el siguiente ejemplo,
se especifican los valores de partición para LO_ORDERKEY para crear varias particiones.
También puede crear una partición predeterminada para valores no incluidos en los especificados.
Opción Acción
Partition Type Elija LIST. La interfaz de usuario del cuadro de diálogo cambia en función
del tipo que elija.
New Value Aquí puede escribir un valor que se añadirá al conjunto de valores de la
partición.
Include Other Values Seleccione esta opción para crear una partición predeterminada en la
que se almacenan todos los valores que no cumplen los criterios de la
partición.
Load From File (Opcional) Escriba el nombre de un archivo .csv que contenga valores de
partición.
5. Seleccione OK.
Version 1.0
165
Schema Conversion Tool de AWS Guía del usuario
Trabajo con LOB
Por ejemplo, puede crear varias particiones basadas en un intervalo de fechas que proporcione. En el
siguiente ejemplo, se especifica el intervalo de valores de partición para LO_ORDERDATE para crear
varias particiones.
Opción Acción
Partition Type Seleccione DATE AUTO SPLIT. La interfaz de usuario del cuadro de
diálogo cambia en función del tipo que elija.
5. Seleccione OK.
Version 1.0
166
Schema Conversion Tool de AWS Guía del usuario
Prácticas recomendadas y solución de problemas
Evite los retrasos Evite tener demasiados agentes que obtengan acceso a su data
warehouse al mismo tiempo.
Un agente deja de funcionar de Si un agente deja de funcionar, el estado de cada una de sus tareas
forma temporal aparecerá como erróneo en la AWS SCT. En algunos casos, el
Version 1.0
167
Schema Conversion Tool de AWS Guía del usuario
Migración de datos desde Apache
Cassandra a Amazon DynamoDB
Un agente deja de funcionar de Si el equipo que ejecuta un agente deja de funcionar de forma
forma permanente permanente, y ese agente está ejecutando una tarea, puede
sustituirlo por un nuevo agente que continúe con la tarea. Solo puede
sustituir un nuevo agente si la carpeta de trabajo del agente original
no se encuentra en el mismo equipo que el agente original. Para
sustituir un nuevo agente, haga lo siguiente:
Amazon DynamoDB es un servicio de base de datos NoSQL. Para almacenar datos en DynamoDB, cree
tablas de base de datos y, a continuación, cargue los datos en dichas tablas. El agente de extracción de
la AWS SCT para Cassandra automatiza el proceso de creación de tablas de DynamoDB que coinciden
con sus homólogas de Cassandra y, a continuación, rellena esas tablas de DynamoDB con datos de
Cassandra.
El proceso de extracción de datos puede añadir una sobrecarga considerable a un clúster de Cassandra.
Por este motivo, no ejecute el agente de extracción directamente con los datos de producción en
Cassandra. Para evitar interferir con las aplicaciones de producción, la AWS SCT le ayuda a crear
un centro de datos clon—, una copia independiente de los datos de Cassandra que desea migrar a
DynamoDB. El agente puede leer los datos del clon y ponerlos a disposición de la AWS SCT, sin que ello
afecte a las aplicaciones de producción.
Cuando se ejecuta el agente de extracción de datos, lee los datos del centro clon y los escribe en un
bucket de Amazon S3. A continuación, AWS SCT lee los datos desde Amazon S3 y los escribe en Amazon
DynamoDB.
Version 1.0
168
Schema Conversion Tool de AWS Guía del usuario
Migración de datos desde Apache
Cassandra a Amazon DynamoDB
Version 1.0
169
Schema Conversion Tool de AWS Guía del usuario
Requisitos previos para migración
desde Cassandra a DynamoDB
Utilice la información de los temas siguientes para aprender a migrar datos desde Apache Cassandra a
Amazon DynamoDB:
Temas
• Requisitos previos para migración desde Cassandra a DynamoDB (p. 170)
• Crear un nuevo proyecto de AWS SCT (p. 172)
• Crear un centro de datos clon (p. 175)
• Instalar, configurar y ejecutar el agente de extracción de datos (p. 181)
• Migrar datos desde el centro de datos clon a Amazon DynamoDB (p. 185)
• Actividades posteriores a la migración (p. 189)
• 3.11.2
• 3.1.1
• 3.0
• 2.2
• 2.1.20 o posterior
Configuración de Amazon S3
Cuando se ejecuta el agente de extracción de datos de AWS SCT, este lee datos desde su centro de datos
clon y los escribe en un bucket de Amazon S3. Antes de continuar, debe proporcionar las credenciales
para conectarse a su cuenta de AWS y a su bucket de Amazon S3. Puede almacenar la información de
sus credenciales y su bucket en un perfil en la configuración de la aplicación global y, a continuación,
asociar el perfil con su proyecto de AWS SCT. Si fuera necesario, seleccione Global Settings para crear
un nuevo perfil. Para obtener más información, consulte Uso de los perfiles del servicio de AWS en la
Herramienta de conversión de esquemas de AWS (p. 13).
Version 1.0
170
Schema Conversion Tool de AWS Guía del usuario
Requisitos previos para migración
desde Cassandra a DynamoDB
Para lanzar una nueva instancia, vaya a la consola de administración de Amazon EC2 en https://
console.aws.amazon.com/ec2/.
Configuración de seguridad
AWS SCT se comunica con el agente de extracción de datos mediante la capa de conexión segura (SSL).
Para habilitar la SSL, configure un almacén de confianza y un almacén de claves:
4. Seleccione Generate Trust and Key Store o haga clic en Select existing Trust and Key Store.
Si selecciona Generate Trust and Key Store, a continuación tendrá que especificar el nombre y
la contraseña de los almacenes de confianza y de claves y la ruta a la ubicación de los archivos
generados. Utilizará estos archivos en pasos posteriores.
Si selecciona Select existing Trust and Key Store, después especificará la contraseña y el nombre del
archivo para los almacenes de confianza y de claves. Utilizará estos archivos en pasos posteriores.
5. Tras haber especificado el almacén de confianza y el almacén de claves, seleccione OK para cerrar el
cuadro de diálogo Global Settings.
Version 1.0
171
Schema Conversion Tool de AWS Guía del usuario
Crear un nuevo proyecto de AWS SCT
Version 1.0
172
Schema Conversion Tool de AWS Guía del usuario
Crear un nuevo proyecto de AWS SCT
Version 1.0
173
Schema Conversion Tool de AWS Guía del usuario
Crear un nuevo proyecto de AWS SCT
3. Seleccione OK (Aceptar). AWS SCT prueba la conexión para asegurarse de que puede obtener
acceso a su clúster de Cassandra.
4. En la barra de menú, seleccione Connect to Amazon DynamoDB (Conectar a Amazon DynamoDB).
Copy from AWS profile (Copiar desde Si ya ha configurado las credenciales de AWS, elija el
perfil de AWS) nombre de un perfil existente.
Región Elija una región de AWS. AWS SCT migrará los datos a
Amazon DynamoDB en esa región.
5. Seleccione OK (Aceptar). AWS SCT prueba la conexión para asegurarse de que puede obtener
acceso a DynamoDB.
Version 1.0
174
Schema Conversion Tool de AWS Guía del usuario
Crear un centro de datos clon
1. En la ventana de AWS SCT, en el lado izquierdo (origen), expanda el nodo Datacenters (Centros de
datos) y elija uno de los centros de datos de Cassandra existentes.
2. Desde el menú Actions (Acciones), elija Clone Datacenter for Extract (Clonar centro de datos para
extraer).
Version 1.0
175
Schema Conversion Tool de AWS Guía del usuario
Crear un centro de datos clon
Version 1.0
176
Schema Conversion Tool de AWS Guía del usuario
Crear un centro de datos clon
Private IP:SSH port (IP privada:puerto Escriba la dirección IP privada y el puerto SSH de
SSH) cualquiera de los nodos en su clúster de Cassandra. Por
ejemplo: 172.28.37.102:22
Public IP:SSH port (IP pública:puerto Escriba la dirección IP pública y puerto SSH para el nodo.
SSH) Por ejemplo: 41.184.48.27:22
Key path (Ruta de clave) Si tiene una clave privada SSH (archivo .pem) para este
nodo, elija Browse (Examinar) para ir a la ubicación donde
se almacena la clave privada.
Elija Next (Siguiente) para continuar. AWS SCT se conecta al nodo de Cassandra, donde ejecuta el
comando nodetool status.
5. En la ventana Source Cluster Parameters (Parámetros del clúster de origen), acepte los valores
predeterminados y elija Next (Siguiente) para continuar.
6. En la ventana Node Parameters (Parámetros de nodo), verifique los detalles de conexión de todos los
nodos en el clúster de origen. AWS SCT rellenará algunos de estos detalles de forma automática; sin
embargo, debe proporcionar cualquier información que falte.
Note
En lugar de introducir todos los datos aquí, puede cargarlos de forma masiva en su lugar.
Para ello, elija Export (Exportar) para crear un archivo .csv. A continuación, puede editar este
archivo, añadiendo una nueva línea para cada nodo del clúster. Cuando haya terminado,
seleccione Upload (Cargar). AWS SCT leerá el archivo .csv y lo utilizará para rellenar la
ventana Node parameters (Parámetros de nodo).
Elija Next (Siguiente) para continuar. AWS SCT verifica que la configuración del nodo es válida.
7. En la ventana Configure Target Datacenter (Configurar centro de datos de destino), revise los
valores predeterminados. En particular, anote el campo Datacenter suffix (Sufijo de centro de datos):
cuando AWS SCT crea el centro de datos clon, se nombrará del mismo modo que el centro de
datos de origen, pero con el sufijo que proporcione. Por ejemplo, si el centro de datos de origen
se denomina my_datacenter, entonces un sufijo de _tgt haría que el clon se denominara
my_datacenter_tgt.
8. Aún en la ventana Configure Target Datacenter (Configurar centro de datos de destino), elija Add new
node (Añadir nuevo nodo):
Version 1.0
177
Schema Conversion Tool de AWS Guía del usuario
Crear un centro de datos clon
Version 1.0
178
Schema Conversion Tool de AWS Guía del usuario
Crear un centro de datos clon
9. En la ventana Add New Node (Añadir nuevo nodo), añada la información necesaria para conectar a la
instancia Amazon EC2 que creó en Instancia Amazon EC2 para centro de datos clon (p. 170).
Cuando la configuración sea la que desea, elija Next (Siguiente). El nodo aparece en la lista:
Version 1.0
179
Schema Conversion Tool de AWS Guía del usuario
Crear un centro de datos clon
Version 1.0
180
Schema Conversion Tool de AWS Guía del usuario
Instalar, configurar y ejecutar el
agente de extracción de datos
Elija OK (Aceptar) para continuar. AWS SCT reinicia el centro de datos de origen, un nodo cada vez.
11. Revise la información en la ventana Datacenter Synchronization (Sincronización del centro de datos).
Si el clúster está ejecutando Cassandra versión 2, entonces AWS SCT copia todos los datos al centro
de datos clon. Si el clúster está ejecutando Cassandra versión 3, entonces puede elegir los espacios
clave que desea copiar al centro de datos clon.
12. Cuando esté listo para empezar a replicar datos a su centro de clonación, seleccione Start (Inicio).
La replicación de datos comenzará de inmediato. AWS SCT muestra una barra de progreso para que
pueda monitorear el proceso de replicación. Tenga en cuenta que la replicación puede tardar mucho
tiempo, en función de la cantidad de datos que haya en el centro de datos de origen. Si necesita
cancelar la operación antes de que se haya completado, seleccione Cancel (Cancelar).
Revise la información en este informe y, a continuación, elija Finish (Finalizar) para completar el
asistente.
Le recomendamos que ejecute el agente en una instancia Amazon EC2. La instancia EC2 debe
cumplir los siguientes requisitos:
Version 1.0
181
Schema Conversion Tool de AWS Guía del usuario
Instalar, configurar y ejecutar el
agente de extracción de datos
Si aún no tiene una instancia Amazon EC2 que cumpla estos requisitos, vaya a la consola de
administración Amazon EC2 (https://console.aws.amazon.com/ec2/) y lance una nueva instancia
antes de continuar.
Siga este procedimiento para instalar, configurar y ejecutar el agente de extracción de datos de AWS SCT
para Cassandra:
java -version
# mount_max = 1000
user_allow_other
6. El agente de extracción de datos de AWS SCT para Cassandra está disponible como parte de
la distribución de AWS SCT (para obtener más información, consulte Instalación, verificación y
actualización de Herramienta de conversión de esquemas de AWS (p. 4)). Puede encontrar el agente
en el archivo .zip que contiene el archivo del instalador de AWS SCT, en el directorio agents. Están
disponibles las siguientes compilaciones del agente:
aws-cassandra-extractor-n.n.n.deb Ubuntu
aws-cassandra-extractor-n.n.n.x86_64.rpm CentOS
Elija el archivo que sea adecuado para su instancia Amazon EC2. Use la utilidad scp para cargar ese
archivo en la instancia Amazon EC2.
7. Instale el agente de extracción de datos de AWS SCT para Cassandra. (Reemplace n.n.n por el
número de compilación).
• Para Ubuntu:
• Para CentOS:
Version 1.0
182
Schema Conversion Tool de AWS Guía del usuario
Instalar, configurar y ejecutar el
agente de extracción de datos
Durante el proceso de instalación, se le pedirá que seleccione la versión Cassandra que desea usar.
Elija la versión 3 o 2, según corresponda.
8. Una vez que la instalación se haya completado, revise los directorios siguientes para asegurarse de
que se han creado correctamente:
La utilidad le pedirá varios valores de configuración. Puede utilizar el siguiente ejemplo como guía,
reemplazando los valores por los suyos propios:
Version 1.0
183
Schema Conversion Tool de AWS Guía del usuario
Instalar, configurar y ejecutar el
agente de extracción de datos
Note
11. Una vez que se completa la utilidad de configuración, revise los siguientes directorios y archivos:
Una vez que el proceso de montaje está completo, revise la carpeta de inicio de Cassandra y el
directorio del archivo de datos de Cassandra como se muestra en el ejemplo siguiente. (Reemplace
34.220.73.140 por su dirección IP real).
ls -l /mnt/cassandra-data-extractor/34.220.73.140_node/conf
ls -l /mnt/cassandra-data-extractor/34.220.73.140_node/data/data
Note
Version 1.0
184
Schema Conversion Tool de AWS Guía del usuario
Migrar datos desde el centro de
datos clon a Amazon DynamoDB
1. Desde el menú View (Ver), elija Data migration view (Vista de migración de datos).
2. Elija la pestaña Agents (Agentes).
3. Si no ha registrado aún el agente de extracción de datos de AWS SCT, verá el siguiente mensaje:
Elija Register.
4. En la ventana New agent registration (Registro de nuevo agente), añada la información siguiente:
Use SSL Si utiliza SSL, elija esta opción para activar la pestaña
SSL.
Trust store (Almacén de confianza) Elija el almacén de confianza que haya configurado en
Instalar, configurar y ejecutar el agente de extracción de
datos (p. 181).
Version 1.0
185
Schema Conversion Tool de AWS Guía del usuario
Migrar datos desde el centro de
datos clon a Amazon DynamoDB
Key store (Almacén de claves) Elija el almacén de claves que haya configurado en
Instalar, configurar y ejecutar el agente de extracción de
datos (p. 181).
Cuando la configuración sea la que desea, elija Register (Registrar). AWS SCT intenta conectar con el
agente de extracción de datos de AWS SCT para Cassandra.
5. En el lado izquierdo de la ventana AWS SCT, elija el centro de datos de Cassandra que ha creado en
Crear un centro de datos clon (p. 175).
6. En la menú Actions (Acciones), elija Create Local & DMS Task (Crear tarea local y DMS).
7. En la ventana Create Local & DMS Task (Crear tarea local y DMS), introduzca la información
siguiente:
Version 1.0
186
Schema Conversion Tool de AWS Guía del usuario
Migrar datos desde el centro de
datos clon a Amazon DynamoDB
Logging level (Nivel de registro) Elija un nivel de registro adecuado para la tarea de
migración.
Delete files from the local directory Elija esta opción para eliminar archivos de datos desde el
(Eliminar archivos del directorio local) directorio local del agente después de cargar los archivos
a Amazon S3.
Puede monitorear el progreso de las tareas, tal y como se muestra en la siguiente captura de pantalla:
Version 1.0
187
Schema Conversion Tool de AWS Guía del usuario
Migrar datos desde el centro de
datos clon a Amazon DynamoDB
Version 1.0
188
Schema Conversion Tool de AWS Guía del usuario
Actividades posteriores a la migración
Si ya no tiene que utiliza el agente de extracción de datos de AWS SCT para Cassandra, haga lo siguiente:
Version 1.0
189
Schema Conversion Tool de AWS Guía del usuario
Información general de la conversión de SQL de aplicación
Puede utilizar la Herramienta de conversión de esquemas de AWS (AWS SCT) para convertir el código
SQL en código C++, C #, Java u otro tipo de código de su aplicación. En el caso de una conversión de
Oracle a PostgreSQL, puede utilizar AWS SCT para convertir el código de SQL*Plus a PSQL.
Version 1.0
190
Schema Conversion Tool de AWS Guía del usuario
Creación de proyectos de conversión de aplicaciones
de esquema de base de datos puede tener uno o varios proyectos de conversión de aplicaciones
secundarios. Utilice el siguiente procedimiento para crear un proyecto de conversión de aplicación.
Version 1.0
191
Schema Conversion Tool de AWS Guía del usuario
Creación de proyectos de conversión de aplicaciones
• JAVA
• C++
• C#
• Cualquiera
SQL parameter style for target Elija una de las siguientes opciones:
database
• Same as in source
• Positional (?)
• Indexed (:1)
• Indexed ($1)
• Named (@name)
• Named (:name)
Select source database schema En el árbol de origen, elija el esquema utilizado por el código de la
aplicación.
4. La primera vez que cree un proyecto de conversión de aplicaciones, la ventana de proyecto se abrirá
automáticamente. Para abrir un proyecto de conversión de aplicaciones existente, seleccione el nodo
de proyecto en el árbol de origen, abra el menú contextual (clic secundario) y seleccione Manage
application.
Version 1.0
192
Schema Conversion Tool de AWS Guía del usuario
Análisis y conversión de su código SQL
La AWS SCT analiza el código de su aplicación y extrae el código SQL. Una lista del código SQL
extraído aparecerá en el panel Parsed SQL Scripts en la parte inferior de la ventana. El elemento
seleccionado en la lista también aparecerá en el panel Extracted SQL script.
2. Puede analizar todos los elementos del código SQL de la lista y, cuando esté listo, seleccionar
Convert para convertir el SQL a SQL para su base de datos de destino.
Note
Version 1.0
193
Schema Conversion Tool de AWS Guía del usuario
Creación y uso del informe de evaluación
En la pestaña Summary que se muestra a continuación aparece la información resumida del informe
de evaluación de la aplicación. Muestra los elementos del código SQL que se hayan convertido
automáticamente y los elementos que no se hayan convertido automáticamente.
Version 1.0
194
Schema Conversion Tool de AWS Guía del usuario
Edición y guardado de su código SQL convertido
La pestaña SQL Conversion Actions contiene una lista de elementos de código SQL que no se pueden
convertir automáticamente. También hay recomendaciones sobre cómo convertir manualmente
el código SQL. Puede editar el código SQL convertido en un paso posterior. Para obtener más
información, consulte Edición y guardado del código SQL convertido con la Herramienta de
conversión de esquemas de AWS (p. 195).
4. Puede guardar una copia local del informe de evaluación de la aplicación en formato PDF o como
un archivo de valores separados por comas (CSV). El archivo PDF contiene tanto el resumen como
información de elementos de acción. El archivo CSV contiene solamente información de elementos de
acción.
Utilice el siguiente procedimiento para editar su código SQL convertido, aplique los cambios y, a
continuación, guárdelos.
1. Edite su código SQL convertido directamente en el panel Target SQL script. Si no se muestra ningún
código convertido, puede hacer clic en el panel y empezar a escribir.
2. Una vez que haya terminado de editar su código SQL convertido, seleccione Apply. En este punto, los
cambios se guardan en memoria, pero aún no se escriben en el archivo.
3. Seleccione Save para guardar los cambios en su archivo.
Important
Al seleccionar Save, sobrescribirá su archivo original. Realice una copia de su archivo original
antes de guardar, a fin de que disponga de un registro de su código de aplicación original.
Version 1.0
195
Schema Conversion Tool de AWS Guía del usuario
• Esquema de la – base de datos: Incluye procedimientos, tablas y funciones SQL para simular algunos
objetos OLTP y OLAP (por ejemplo, secuencia) o funciones integradas no admitidas de la base de datos
de origen. Este esquema se nombra en el formato aws_<database engine name>_ext.
• Biblioteca de Python personalizada (para algunas bases de datos OLAP): – Incluye un conjunto de
funciones de Python que simulan funciones de la base de datos integradas no admitidas. Utilice esta
biblioteca al migrar desde una de las bases de datos admitidos a Amazon Redshift.
Para obtener más información sobre esta biblioteca, consulte Uso de la biblioteca de Python
personalizada para el paquete de extensión de la AWS SCT (p. 197).
• Funciones de AWS Lambda (para algunas bases de datos OLTP): Incluye funciones de – que simulan
AWS Lambda funcionalidades de la base de datos complejas, como programación del trabajo y envío de
correos electrónicos.
Temas
• Uso del esquema del paquete de extensión (p. 197)
• Uso de la biblioteca de Python personalizada para el paquete de extensión de la AWS SCT (p. 197)
• Uso de las funciones de AWS Lambda del paquete de extensión AWS SCT (p. 199)
• La AWS SCT aplica automáticamente el paquete de extensión cuando usted aplica un script de base de
datos de destino al elegir ApplyToTarget desde el menú contextual. La AWS SCT aplica el paquete de
extensión antes de que aplicar el resto de objetos del esquema.
• Para aplicar manualmente el paquete de extensión, seleccione la base de datos de destino y, a
continuación, elija Apply Extension Pack desde el menú contextual. La aplicación automática es
suficiente para la mayoría de las situaciones. Sin embargo, es posible que desee aplicar el paquete si se
elimina accidentalmente.
Cada vez que se aplica el paquete de extensión de la AWS SCT a un almacén de datos de destino, los
componentes se sobrescriben. Cada componente tiene un número de versión y la AWS SCT le avisa si la
versión del componente actual es anterior a la versión que se aplica. Puede controlar estas notificaciones
en Notification Settings en la sección Global Settings de Settings.
Version 1.0
196
Schema Conversion Tool de AWS Guía del usuario
Uso del esquema de base de
datos del paquete de extensión
El esquema del paquete de extensión para bases de datos OLTP se nombra en función a la base de datos
de origen, de la siguiente manera:
El esquema del paquete de extensión para aplicaciones data warehouse OLAP se nombra en función del
almacén de base de datos de origen, de la siguiente manera:
• Greenplum: AWS_GREENPLUM_EXT
• Microsoft SQL Server: AWS_SQLSERVER_EXT
• Netezza: AWS_NETEZZA_EXT
• Oracle: AWS_ORACLE_EXT
• Teradata: AWS_TERADATA_EXT
• Vertica: AWS_VERTICA_EXT
Si va a convertir una base de datos transaccional, consulte Uso de las funciones de AWS Lambda del
paquete de extensión AWS SCT (p. 199).
Hay dos casos en los que podría querer instalar el paquete de extensión a mano:
Version 1.0
197
Schema Conversion Tool de AWS Guía del usuario
Aplicación del paquete de extensión
• Si está volviendo a instalar solamente el esquema del paquete de extensión, seleccione Skip this
step for now y, a continuación, Next.
• Si está cargando la biblioteca de Python, facilite las credenciales para conectarse a su cuenta
de AWS. Puede utilizar sus credenciales de AWS Command Line Interface (AWS CLI) si tiene
instalada la AWS CLI. También puede utilizar las credenciales que ya haya almacenado en un perfil
en la configuración global de la aplicación y tenga asociadas con el proyecto. Si fuera necesario,
seleccione Navigate to Project Settings para asociar al proyecto un perfil diferente. Si fuera
necesario, seleccione Global Settings para crear un nuevo perfil. Para obtener más información,
consulte Uso de los perfiles del servicio de AWS en la Herramienta de conversión de esquemas de
AWS (p. 13).
4. En la página Python Library Upload, haga lo siguiente:
• Si está volviendo a instalar solamente el esquema del paquete de extensión, seleccione Skip this
step for now y, a continuación, Next.
• Si desea cargar la biblioteca de Python, proporcione la ruta de Amazon S3 y, a continuación,
seleccione Upload Library to S3 (Cargar biblioteca a S3).
Version 1.0
198
Schema Conversion Tool de AWS Guía del usuario
Las funciones de Lambda del paquete de extensión
El asistente del paquete de extensión de la AWS SCT le ayuda a instalar, crear y configurar funciones de
Lambda para simular las características de correo electrónico, programación del trabajo y otras funciones.
Las características de simulación de los servicios de AWS solo se admiten en bases de datos
instaladas y autoadministradas en la plataforma Amazon EC2. No instale las características de
simulación de servicios si su base de datos de destino está en una instancia de base de datos de
Amazon RDS.
• Si está volviendo a instalar solamente el esquema del paquete de extensión, seleccione Skip this
step for now y, a continuación, Next.
Version 1.0
199
Schema Conversion Tool de AWS Guía del usuario
Aplicación del paquete de extensión
• Si está instalando AWS Services, facilite las credenciales para conectarse a su cuenta de AWS.
Puede utilizar sus credenciales de AWS Command Line Interface (AWS CLI) si tiene instalada
la AWS CLI. También puede utilizar las credenciales que ya haya almacenado en un perfil en
la configuración global de la aplicación y tenga asociadas con el proyecto. Si fuera necesario,
seleccione Navigate to Project Settings para asociar al proyecto un perfil diferente. Si fuera
necesario, seleccione Global Settings para crear un nuevo perfil. Para obtener más información,
consulte Uso de los perfiles del servicio de AWS en la Herramienta de conversión de esquemas de
AWS (p. 13).
4. En la página Email Sending Service, haga lo siguiente:
• Si está volviendo a instalar solamente el esquema del paquete de extensión, seleccione Skip this
step for now y, a continuación, Next.
• Si está instalando servicios de AWS y ya tiene una función de Lambda, puede introducirla. De lo
contrario, el asistente la creará por usted. Cuando haya terminado, elija Next.
5. En la página Job Emulation Service, haga lo siguiente:
• Si está volviendo a instalar solamente el esquema del paquete de extensión, seleccione Skip this
step for now y, a continuación, Next.
• Si está instalando servicios de AWS y ya tiene una función de Lambda, puede introducirla. De lo
contrario, el asistente la creará por usted. Cuando haya terminado, elija Next.
6. En la página Functions Emulation, seleccione Create Extension Pack. Aparecerán mensajes con el
estado de las operaciones del paquete de extensión.
Version 1.0
200
Schema Conversion Tool de AWS Guía del usuario
Administración general de la
memoria y opciones de desempeño
• Conversión rápida, pero alto consumo de memoria: – esta opción optimiza la conversión para que sea
rápida, pero podría requerir más memoria para la caché de referencia de objetos.
• Bajo consumo de memoria, pero conversión más lenta: – esta opción reduce al mínimo la cantidad de
memoria empleada, pero da como resultado una conversión más lenta. Utilice esta opción si el escritorio
tiene una cantidad limitada de memoria.
• Equilibrio entre velocidad y consumo de memoria: – esta opción de optimización facilita un equilibrio
entre el uso de la memoria y la velocidad de conversión.
[JVMUserOptions]
-Xmx48960m
-Xms4096m
Version 1.0
201
Schema Conversion Tool de AWS Guía del usuario
No se puede cargar objetos de una
base de datos de origen de Oracle
Estos errores se producen debido a que el usuario cuyo ID se utiliza para conectarse a la base de datos
Oracle no tiene permisos suficientes para leer el esquema según requiere la AWS SCT.
Puede resolver este problema si concede al usuario permiso select_catalog_role y permiso para
cualquier diccionario en la base de datos. Estos permisos proporcionan un acceso de solo lectura a las
vistas y tablas del sistema que requiere AWS SCT. En el siguiente ejemplo se crea un ID de usuario
denominado min_privs y concede al usuario con este ID los permisos mínimos necesarios para convertir
el esquema de una base de datos Oracle de origen.
Version 1.0
202
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 632
Oracle PostgreSQL o • Ahora convierte los literales de cadena vacíos a NULL en todas
Aurora PostgreSQL partes: metadatos de objeto, instrucciones analizables, scripts
o instrucciones SQL en el código fuente de la aplicación, entre
otros.
• REPLACE tiene ahora el mismo comportamiento en Oracle y en
PostgreSQL.
• Ahora acepta más de 100 argumentos, que no estaban
permitidos para las funciones y los procedimientos de forma
predeterminada.
• Las funciones aws_oracle_ext.instr ya no devuelven un
resultado incorrecto.
• Ahora las funciones LEAST y GREATEST funcionan igual.
• Ya no debe utilizarse la función immutable_concat_ws del
paquete de extensión en lugar de standard concat_ws en
las vistas.
• Se ha implementado la función concat del paquete de
extracción inmutable.
• El sinónimo público ya no se expande en las vistas.
• Se ha añadido compatibilidad con
dbms_application_info.set_module.
• Ahora se admiten variables de tipo de número previamente
incompatibles para los códigos de error.
• Ahora se admite FETCH BULK COLLECT INTO.
• Ahora se admite SAVEPOINT, ROLLBACK TO SAVEPOINT
dentro de las funciones.
Version 1.0
203
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 631
Amazon RDS for Redshift Corrección: para el error de comando de copia que se producía
Oracle al cargar en Redshift desde Oracle en RDS mediante el agente
de extracción de datos SCT en cualquier sistema operativo de
entorno japonés. Se ha agregado el comando "ALTER SESSION
SET NLS_DATE_LANGUAGE = 'ENGLISH'" para Oracle antes de
extraer los datos.
Errores resueltos:
Version 1.0
204
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 631
MySQL (Aurora)
Microsoft SQL PostgreSQL Ahora, el comentario del bloque try/catch se transfiere al destino
Server
Se ha mejorado la compatibilidad con los parámetros de los
procedimientos almacenados que tienen valores predeterminados
DBMS_XMLGEN y DBMS_XMLQUERY
Version 1.0
205
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 631
Version 1.0
206
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 631
Cursores
Comentarios
Version 1.0
207
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 630
Instrucciones de diagnóstico
Errores resueltos:
• Procedimientos almacenados
Version 1.0
208
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 629
• Paquetes PL/SQL
• Tratamiento de excepciones
• Gestión de condiciones
• Instrucciones DDL
• Declaraciones DDL: CREATE otros objetos
• Enunciados DML: compatibilidad mejorada
Version 1.0
209
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión–
Errores resueltos:
Version 1.0
210
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión–
Version 1.0
211
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión–
• Cursores en procedimientos
• MERGE
• EXECUTE IMMEDIATE es compatible con procedimientos y ha
mejorado la compatibilidad con SQL dinámico
• Subprogramas anidados en procedimientos
• Cursores en procedimientos
• MERGE
• QUALIFY
• variables DECLARE y SET
SAP ASE 15.0 Compatibilidad con SAP ASE 15.0 como origen
Version 1.0
212
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión–
Version 1.0
213
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 627 –
Errores resueltos:
• Se ha añadido compatibilidad para crear un informe SCT junto con componentes lógicos en WQF.
• Solución: problema en el que el informe WQF incluía elementos de acción de error de extracción
• Solución: problema cuando SCT no recoge automáticamente el punto de enlace de DMS para Aurora
PostgreSQL
• Solución: problema cuando Apply to database (Aplicar a base de datos) aparece atenuado para varios
esquemas
• Corrección de errores y mejoras generales
Version 1.0
214
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 627 –
Version 1.0
215
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 627 –
Version 1.0
216
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 627 –
Version 1.0
217
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 627 –
Version 1.0
218
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 627 –
Version 1.0
219
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión: 627 –
Version 1.0
220
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 626
AWS Glue Las mejoras en las conversiones a AWS Glue incluyen las siguientes.
Errores resueltos:
Version 1.0
221
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 626
MySQL 8.0 MySQL 8.0 ya se admite como objetivo. Estas son algunas de las
principales características:
AzureSQL/MSSQL a MySQL/ Ya puede utilizar las columnas de identidad en las tablas temporales y
AuroraMySQL las funciones con valores de tabla.
A partir de ahora puede utilizar INSERT INTO para las tablas con una
columna de identidad.
De DB2 a MariaDB 10.3 (SQL MODE=ORACLE) Las rutinas de módulos y las referencias variables
ya se admiten.
Netezza a Redshift Las columnas de la tabla que contienen DEFAULT 'now(0)' se han
establecido ahora en DEFAULT SYSDATE.
Oracle a MariaDB 10.3 (SQL MODE=ORACLE) Las rutinas de módulos, las referencias variables y
el uso de secuencias ya se admiten.
Oracle a AWS Glue La función integrada del conjunto FORMAT MODELS ya se admite.
Version 1.0
222
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 625
Teradata BTEQ a AWS Glue Ahora se admiten funciones integradas para los conjuntos BITBYTE y
PERIOD.
Problemas resueltos:
• Se han corregido errores de convertidor internos para la migración de SQL Server a MySQL.
• Se han corregido problemas en el informe de evaluación de la conversión de la aplicación.
• Se han corregido problemas para el particionado de intervalos de Oracle.
• Se han corregido y pulido las conversiones a AWS Glue.
• Corrección de errores y mejoras generales.
De DB2 a MariaDB 10.3 (SQL Para conversiones de DB2 a MariaDB 10.3 con SQL MODE=ORACLE,
MODE=ORACLE) ahora se admite lo siguiente:
Oracle a MariaDB 10.3 Para las conversiones de Oracle a MariaDB 10.3, puede utilizar las
variables %TYPE y %ROWTYPE.
De Oracle a MariaDB 10.3 Para las conversiones de Oracle a MariaDB 10.3 con SQL
(SQL MODE=ORACLE) MODE=ORACLE, ahora se admite lo siguiente:
Version 1.0
223
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 624
Problemas resueltos:
• Se han añadido notificaciones para el momento en que se cierra un proyecto y se podrían perder las
conexiones del agente de datos.
• Se han resuelto los problemas de conversión de Oracle a PostgreSQL.
• Se han resuelto los problemas de conversión de SCT Oracle a PostgreSQL: problema to_date.
• Corrección de errores y mejoras generales.
Convertir ETL de Oracle a Ya puede convertir los trabajos de ETL de Oracle a ETL en base a AWS
AWS Glue Glue para trabajar junto con Amazon Redshift.
Conversiones de Microsoft Se ha añadido compatibilidad con RDS para MariaDB 10.2 y 10.3 como
SQL Server, Oracle e IBM destino.
Db2 LUW a Amazon RDS for
MariaDB
Conversiones de SAP ASE Se ha añadido compatibilidad para las conversiones de SAP ASE a
a RDS for MySQL y Amazon objetos de base de datos MySQL
Aurora con compatibilidad
con MySQL
Version 1.0
224
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 623
Problemas resueltos:
• Se ha solucionado el problema al utilizar perfiles de AWS en AWS SCT en las regiones de Pekín y
Ningxia.
• Se ha solucionado un problema en SQL Server a RDS para las conversiones PostgreSQL/Aurora
PostgreSQL donde SCT no regresa al convertir un procedimiento almacenado.
• Se ha solucionado un error de partición virtual en los agentes de extracción de datos desde la
compilación 623.
• Corrección de errores y mejoras generales.
Conversión de SAP ASE a Se ha añadido SAP ASE como una base de datos de origen.
PostgreSQL
Version 1.0
225
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 623
MSSQL: emulación de vista La vista sysobject se puede emular mediante Ext.Pack durante una
sysobject para la conversión conversión de MS SQL Server a MySQL, Aurora MySQL o MariaDB.
a MySQL, Aurora MySQL o
MariaDB
Modificación del "modo de Cuando compare dos esquemas PostgreSQL con SCT, ya no necesitará
comparación" de SCT para implementar el esquema de servicio.
el módulo de replicación DDL
para PostgreSQL
Version 1.0
226
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 622
Mejora de la regla de "tablas La regla de tablas pequeñas tiene en cuenta el número de filas de la
pequeñas" (DISTSTYLE=ALL) tabla, en lugar de su tamaño.
para Redshift
Problemas resueltos:
• Se ha solucionado un problema con la doble codificación UTF-8 en los extractores de datos para las
migraciones de Netezza a Redshift.
• Se ha solucionado un problema con la deserialización de YAML no segura en los archivos de
configuración de Cassandra.
• Mejoras en la conversión de Microsoft SQL Server a PostgreSQL.
• Se ha solucionado un problema por el que no se podía establecer conexión con el clúster de Cassandra
si la versión era 2.1.20. SCT ahora admite la migración desde Cassandra 2.1.20.
Agente de AWS DMS para Si está utilizando el agente de AWS DMS local para migrar datos a un
AWS SCT dispositivo AWS Snowball Edge o para Amazon S3, tenga en cuenta lo
siguiente:
Microsoft SQL Server a Cuando se utiliza SQL Server como origen, aparece un elemento nuevo
PostgreSQL: conversión de en el panel de origen: "SQL Scripts" (Scripts SQL). Si elige Actions |
scripts Load Scripts (Acciones | Cargar scripts) en el menú de AWS SCT, puede
elegir uno o varios archivos .sql para convertirlos. Durante la conversión,
AWS SCT vuelve a escribir los scripts para usarlos con PostgreSQL. Los
resultados se muestran en el panel de destino: "SQL Scripts" (Scripts
SQL).
Version 1.0
227
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 621
Los extractores de datos El comando COPY puede sustituir NULL por un valor diferente:
permiten la sustitución del
valor NULL • COPY … FROM … NULL AS 'MyReplacementValue' …
• CREATE EXTERNAL TABLE … USING (REMOTESOURCE …
NULLVALUE 'MyReplacementValue' …)
Soporte para compresión Capacidad de elegir compresión ZSTD para las columnas de la tabla.
ZSTD en Redshift Nueva configuración del proyecto para elegir opciones de conversión:
Almacén de datos de Nueva configuración del proyecto para guardar scripts SQL:
Oracle: compatibilidad con
varios archivos durante la • Archivo único: todo el SQL se generará en un único archivo.
generación de scripts • Varios archivos: cada archivo contiene instrucciones SQL, incluido el
ID y el nombre de la etapa. Los scripts se deben ejecutar de uno en
uno, por orden de ID.
Problemas resueltos
• Microsoft SQL Server: no se puede crear informes de evaluación para una instancia con nombre.
• Oracle a PostgreSQL: un mensaje de error indica de forma incorrecta que no se admiten las vistas
materializadas.
• Microsoft SQL Server a PostgreSQL: Dynamic SQL se convierte de forma incorrecta.
• Informes de evaluación: los archivos PDF que contienen caracteres multibyte no se pueden guardar.
• Microsoft SQL Server a PostgreSQL: error en conversiones con NullPointerException.
• Extractores de datos OLAP: correcciones de errores para la partición virtual. (Para obtener más
información, consulte https://aws.amazon.com/blogs/database/use-virtual-partitioning-in-the-aws-
schema-conversion-tool).
• Uso de AWS SCT para crear una tarea en AWS DMS: corrección de errores. Se recomienda actualizar a
AWS SCT compilación 622 si necesita ejecutar una tarea de AWS DMS.
Version 1.0
228
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 621
Microsoft SQL Server a Las siguientes funciones de fecha y hora son compatibles con
MySQL: mejoras el paquete de extensión de AWS SCT: DATETIMEFROMPARTS,
DATETIME2FROMPARTS y TIMEFROMPARTS.
Guardar código SQL para Puede guardar las instrucciones SQL que AWS SCT genera para crear
crear un árbol de origen el árbol de origen. En esta versión, los siguientes motores de bases de
datos son ahora compatibles: MySQL, PostgreSQL y Azure.
Compatibilidad para utilizar Amazon Aurora compatible con PostgreSQL es ahora compatible con
Amazon Aurora PostgreSQL la versión principal de PostgreSQL 10.4. AWS SCT es totalmente
10 como destino. compatible con el uso de esta nueva versión como destino.
Netezza como origen: AWS SCT reconoce tablas EXTERNAL en Netezza. Esto permite a AWS
mejoras SCT acceder a datos externos como si estuvieran almacenados de
forma nativa en Netezza.
Para que el rendimiento sea más rápido, AWS SCT utiliza la compresión
paralela al leer datos de Netezza.
• extractor.redshift.copying.thread.pool.size—: el
número de comandos COPY que puede ejecutar el agente de forma
simultánea. El valor predeterminado es 1, lo que supone que el agente
ejecutará todos los comandos COPY de forma secuencial.
• extractor.redshift.copy.command.count.threshold—: el
número máximo de comandos COPY que se pueden ejecutar a la vez.
El valor predeterminado es 5.
Version 1.0
229
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 620
Problemas resueltos:
• Microsoft SQL Server a MySQL: AWS SCT admite operaciones aritméticas con tipos de operandos
mixtos.
• La partición virtual de AWS SCT es totalmente compatible con columnas que contengan el dato NULL.
Para obtener más información, consulte Uso de particiones virtuales con Herramienta de conversión de
esquemas de AWS (p. 164).
Guardar instrucciones AWS SCT le permite guardar instrucciones SQL utilizadas para crear
CREATE en scripts SQL objetos de base de datos (CREATE TABLE, CREATE VIEW, CREATE
FUNCTION, etc.). Puede guardar todas las instrucciones en un script
SQL, guardar cada una de las instrucciones en un archivo de script SQL
independiente o guardar cada instrucción en su propio script SQL.
Microsoft SQL Server a Estas funciones son compatibles con el paquete de extensión de AWS
MySQL: compatibilidad SCT.
con las funciones
CHECKSUM, ISNUMERIC y
NEWSEQUENTIALID
Microsoft SQL Server a AWS SCT puede migrar los datos de tipo TIMESTAMP desde SQL
MySQL: tipo de datos Server a MySQL.
TIMESTAMP
Version 1.0
230
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 619
Microsoft SQL Server a AWS SCT puede migrar funciones OPENXML desde SQL Server hasta
PostgreSQL: funciones MySQL.
OPENXML
Oracle a MySQL: cursores Oracle es compatible con cursores globales, en los que se
globales puede acceder a un cursor definido en una unidad del programa
(procedimiento, función o desencadenador almacenado) fuera de la
unidad del programa en la que se definió. MySQL no es compatible con
los cursores globales. Sin embargo, AWS SCT ofrece una funcionalidad
equivalente modificando el código de la unidad del programa en el
destino de MySQL.
Oracle a MySQL: datos AWS SCT puede migrar datos espaciales, objetos y funciones desde
espaciales Oracle hasta MySQL.
Oracle a MySQL: Este tipo de datos es compatible con el paquete de extensión de AWS
TIMESTAMP WITH TIME SCT.
ZONE
Tamaño de LOB definido por Ahora puede definir el tamaño máximo de objetos grandes (LOB) al
el usuario con AWS Snowball utilizar el agente de DMS de AWS SCT y AWS Snowball.
Problemas resueltos
Soporte de migración desde Puede utilizar AWS SCT con un agente de extracción de datos de AWS
Apache Cassandra a Amazon para migrar desde Apache Cassandra a Amazon DynamoDB. Para
DynamoDB obtener más información, consulte Migración de datos desde Apache
Cassandra a Amazon DynamoDB (p. 168).
Soporte para Vertica 9 como A partir de ahora, puede utilizar la versión Vertica 9 como origen de
origen de migración migración. Para obtener más información, consulte Utilizar Vertica como
origen para Herramienta de conversión de esquemas de AWS (p. 77).
Soporte de Azure SQL Ahora puede migrar desde Azure SQL Database a MySQL, PostgreSQL
Database como origen o Amazon Aurora (con compatibilidad con MySQL o PostgreSQL).
Version 1.0
231
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 618
Problemas resueltos
• Microsoft SQL Server a PostgreSQL: AWS SCT admite operaciones aritméticas con tipos de operandos
mixtos.
• Oracle Advanced Queuing (AQ) se admite al migrar a Amazon RDS para Oracle.
SQL dinámico en literales de Puede ejecutar una cadena de comandos o una cadena de caracteres
cadena dentro de un lote Transact-SQL o uno de los módulos siguientes:
procedimiento almacenado en el sistema, procedimiento almacenado
definido por el usuario, procedimiento almacenado de CLR, función
definida por el usuario de valor escalar o procedimiento almacenado
extendido. La instrucción EXECUTE se puede utilizar para enviar
comandos de paso a servidores vinculados. Además, el contexto en
el que se ejecuta una cadena o un comando se puede establecer
explícitamente. Los metadatos para el conjunto de resultados se pueden
definir utilizando las opciones WITH RESULT SETS.
Microsoft SQL Server AWS SCT admite la conversión de datos espaciales de MS SQL Server
a PostgreSQL: datos a PostgreSQL.
espaciales
MS SQL Server a MySQL: AWS SCT admite la conversión de datos espaciales de MS SQL Server
datos espaciales a MySQL.
Microsoft SQL Server AWS SCT admite la función @@ROWCOUNT de Microsoft SQL Server
a PostgreSQL: de MS SQL Server a PostgreSQL.
@@ROWCOUNT
Oracle a MySQL: formato La función TO_CHAR de Oracle acepta una amplia gama de caracteres
de cadenas para función de de formato. AWS SCT admite estas cadenas de formato de Oracle a
conversión TO_CHAR MySQL.
Oracle a MySQL: AWS SCT admite instrucciones INSERT y UPDATE que utilizan la
compatibilidad de la cláusula cláusula WITH, de Oracle a MySQL.
WITH para instrucciones
INSERT y UPDATE
Oracle a MySQL: formato La función TO_NUMBER de Oracle acepta una amplia gama de
de cadenas para función de caracteres de formato. AWS SCT admite estas cadenas de formato de
conversión TO_NUMBER Oracle a MySQL.
Microsoft SQL Server a AWS SCT admite la función PARSE de Microsoft SQL Server, de MS
PostgreSQL: PARSE SQL Server a PostgreSQL.
Version 1.0
232
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 617
MS SQL Server: Puede guardar las instrucciones SQL que AWS SCT genera para crear
almacenamiento de código el árbol de origen.
SQL para crear un árbol de
origen
Problemas resueltos
• Los extractores de datos SCT ahora emiten comandos COPY para Redshift.
• Redshift: la función de ventana count(distinct) se tiene que reescribir a Redshift DENSE_RANK.
• La conversión de consultas utilizando las funciones FROM_TZ y EXTRACT de Oracle ahora se traducen
correctamente a equivalentes basados en Redshift, utilizando extract y convert_timezone.
• El informe de evaluación notifica de forma incoherente el número de objetos de código en la base de
datos de origen.
• Reescritura de la función INSTR de Oracle a función integrada de Redshift para más casos.
• Se ha añadido compatibilidad de comparación de esquemas PostgreSQL 9.x - PostgreSQL 10.
De Oracle a Amazon RDS for AWS SCT incorpora compatibilidad con perfiles de usuario, funciones
Oracle: objetos de nivel de de usuario, programas de eventos y mucho más. Para obtener más
servidor de Oracle información, consulte Conversión de Oracle a Amazon RDS for
Oracle (p. 42).
De SQL Server a Amazon El informe de evaluación de AWS SCT contiene información acerca de
RDS for SQL Server: la instancia de base de datos de Amazon RDS, así como los servicios
inclusión de métricas de SQL Server que se usan en la base de datos de origen. Para obtener
adicionales en el informe de más información, consulte Conversión de SQL Server a Amazon RDS
evaluación for SQL Server (p. 54).
De Oracle a Amazon RDS for El informe de evaluación de AWS SCT contiene información acerca de
Oracle: inclusión de métricas la instancia de base de datos de Amazon RDS, así como los servicios
adicionales en el informe de de Oracle que se usan en la base de datos de origen. Para obtener
evaluación más información, consulte Conversión de Oracle a Amazon RDS for
Oracle (p. 42).
De Oracle a PostgreSQL 10: AWS SCT admite TIMESTAMP sin columnas de zona horaria.
TIMESTAMP sin columnas de
zona horaria
De Oracle a PostgreSQL 10: Puede convertir las pseudocolumnas ROWID en columnas de datos.
columnas ROWID Para obtener más información, consulte Conversión de pseudocolumnas
ROWID de Oracle a PostgreSQL (p. 36).
Version 1.0
233
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 616
De SQL Server a AWS SCT convierte la instrucción MERGE al migrar a PostgreSQL. Para
PostgreSQL: emulación de la obtener más información, consulte Uso de Microsoft SQL Server como
instrucción MERGE origen para Herramienta de conversión de esquemas de AWS (p. 45).
De Oracle a MySQL: AWS SCT convierte las cláusulas WITH al migrar a MySQL. Para
cláusulas SELECT y WITH obtener más información, consulte Conversión de Oracle a Amazon
RDS for MySQL o Amazon Aurora (MySQL) (p. 38)
De SQL Server a MySQL: El paquete de extensión de AWS SCT emula varias funciones, incluidas
paquete de extensión ISDATE, FORMAT, PATINDEX y CONVERT.
De SQL Server a Puede utilizar tipos de tablas definidos por el usuario para especificar
PostgreSQL: tipos de tablas estructuras de tabla. Para obtener más información, consulte Uso de
definidos por el usuario Microsoft SQL Server como origen para Herramienta de conversión de
esquemas de AWS (p. 45).
Oracle: almacenamiento de Puede guardar las instrucciones SQL que AWS SCT genera para crear
código SQL para crear un el árbol de origen.
árbol de origen
Problemas resueltos
De SQL Server a AWS SCT permite convertir SUSER_SNAME. Para obtener más
PostgreSQL: compatibilidad información, consulte Conversión de SQL Server PostgreSQL (p. 50).
con SUSER_SNAME
De SQL Server a AWS SCT permite convertir funciones con valores de tabla. Para
PostgreSQL: compatibilidad obtener más información, consulte Conversión de SQL Server
con funciones con valores de PostgreSQL (p. 50).
tabla
De Oracle a Amazon RDS for AWS SCT añade compatibilidad con muchos tipos de trabajos de Oracle
Oracle: trabajos de Oracle en Amazon RDS for Oracle.
De Oracle a Amazon RDS for Amazon RDS for Oracle no admite Oracle RAC. Considere la posibilidad
Oracle: Oracle RAC de utilizar una implementación Multi-AZ en una instancia de Amazon
RDS para obtener una alta disponibilidad.
Version 1.0
234
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 616
De Oracle a Amazon RDS for Amazon RDS for Oracle no admite Oracle Data Guard ni Active Data
Oracle: Oracle Data Guard y Guard. Considere la posibilidad de utilizar una implementación Multi-AZ
Active Data Guard en una instancia de Amazon RDS para obtener una alta disponibilidad.
De Oracle a Amazon RDS for Amazon RDS for Oracle no admite la replicación continua. Puede utilizar
Oracle: replicación continua AWS Database Migration Service si necesita tener replicación continua
en un destino de Amazon RDS.
De Oracle a Amazon RDS for Amazon RDS para Oracle no admite Oracle Unified Auditing. Amazon
Oracle: auditorías RDS for Oracle admite las auditorías tradicionales y detalladas (paquete
DBMS_FGA).
De Oracle a Amazon RDS AWS SCT permite convertir objetos de Oracle DBMS_SCHEDULER al
for Oracle: objetos de migrar a Amazon RDS for Oracle.
programación
De SQL Server a MySQL: MySQL no admite funciones con valores de tabla compuestas de varias
funciones con valores de instrucciones. AWS SCT simula las funciones con valores de tabla
tabla durante una conversión mediante la creación de tablas temporales. Para
obtener más información, consulte Uso de Microsoft SQL Server como
origen para Herramienta de conversión de esquemas de AWS (p. 45).
Actualizaciones del informe Las actualizaciones del informe de evaluación de AWS SCT incluyen las
de evaluación de AWS SCT siguientes:
De SQL Server a Amazon Amazon RDS no admite actualmente SQL Server Service Broker ni
RDS for SQL Server: Service puntos de enlace de T-SQL adicionales que usen el comando CREATE
Broker y puntos de enlace ENDPOINT. Para obtener más información, consulte Uso de Microsoft
SQL Server como origen para Herramienta de conversión de esquemas
de AWS (p. 45).
De Db2 LUW a PostgreSQL AWS SCT puede convertir tablas de Db2 LUW en tablas particionadas
10: tablas particionadas de PostgreSQL 10.
Problemas resueltos
• De Db2 LUW a Amazon RDS for MySQL o Amazon Aurora (MySQL). Se ha añadido la capacidad de
mostrar el código SQL de destino para varios objetos relacionados transformados.
• De Db2 LUW a Amazon RDS for PostgreSQL o Amazon Aurora (PostgreSQL). Se ha añadido la
capacidad de mostrar el código SQL de destino para varios objetos relacionados transformados.
• De MySQL a Amazon RDS for PostgreSQL o Amazon Aurora (PostgreSQL). Se ha añadido la capacidad
de mostrar el código SQL de destino para varios objetos relacionados transformados.
• OLAP. Se ha añadido la capacidad de mostrar el código SQL de destino para varios objetos
relacionados transformados.
• Se ha resuelto el problema de AWS SCT de conversión de MySQL a MySQL.
Version 1.0
235
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 615
De SQL Server a MySQL: MySQL no admite la instrucción MERGE; sin embargo, AWS SCT
compatibilidad con la puede emular esta instrucción utilizando la cláusula INSERT ON
instrucción MERGE DUPLICATE KEY y las instrucciones UPDATE FROM y DELETE FROM.
Para obtener más información, consulte Conversión de SQL Server a
MySQL (p. 49).
De SQL Server a AWS SCT permite generar nombres de índice únicos si los nombres de
PostgreSQL: compatibilidad los índices no lo son. Para ello, seleccione la opción Generate unique
para crear nombres de índice index names (Generar nombres de índice únicos) en las propiedades del
únicos proyecto. Para obtener más información, consulte Conversión de SQL
Server PostgreSQL (p. 50).
De Oracle a PostgreSQL: Cuando AWS SCT convierte un esquema de una base de datos
compatibilidad con las de Oracle en una base de datos de PostgreSQL, puede emular
particiones de PostgreSQL 10 particiones y subparticiones. Para obtener más información, consulte
Conversión de Oracle a Amazon RDS for PostgreSQL o Amazon Aurora
(PostgreSQL) (p. 35).
De SQL Server a Cuando AWS SCT convierte un esquema de una base de datos de SQL
PostgreSQL: compatibilidad Server en una base de datos de PostgreSQL, puede emular particiones
con las particiones de y subparticiones. Para obtener más información, consulte Conversión
PostgreSQL 10 de SQL Server PostgreSQL (p. 50).
De SQL Server a MySQL: MySQL no utiliza instrucciones GOTO. Cuando AWS SCT convierte
compatibilidad con la código que contiene la instrucción GOTO, convierte esta instrucción para
instrucción GOTO utilizar en su lugar la instrucción BEGIN...END o LOOP...END LOOP.
De SQL Server a PostgreSQL no utiliza instrucciones GOTO. Cuando AWS SCT convierte
PostgreSQL: compatibilidad código que contiene la instrucción GOTO, convierte esta instrucción para
con la instrucción GOTO utilizar en su lugar la instrucción BEGIN...END o LOOP...END LOOP.
De Oracle a PostgreSQL: PostgreSQL no utiliza instrucciones GOTO. Cuando AWS SCT convierte
compatibilidad con la código que contiene la instrucción GOTO, convierte esta instrucción para
instrucción GOTO utilizar en su lugar la instrucción BEGIN...END o LOOP...END LOOP.
De DB2 LUW a PostgreSQL: AWS SCT puede convertir diversas instrucciones TRIGGER que
compatibilidad con se utilizan con DB2 LUW. Para obtener más información, consulte
disparadores de DB2 en Conversión de DB2 LUW a Amazon RDS for PostgreSQL o Amazon
PostgreSQL Aurora (PostgreSQL) (p. 64)
Version 1.0
236
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 614
De SQL Server a Amazon AWS SCT puede añadir disparadores de bases de datos al árbol de
RDS for SQL Server: objetos cuando el destino es Amazon RDS for SQL Server.
compatibilidad con los
disparadores de nivel de base
de datos
De SQL Server a Amazon AWS SCT ahora es compatible con los disparadores de nivel de
RDS for SQL Server: servidor, los servidores enlazados y los agentes de SQL Server. Para
compatibilidad con obtener más información, consulte Uso de Microsoft SQL Server como
disparadores de nivel origen para Herramienta de conversión de esquemas de AWS (p. 45).
de servidor, servidores
enlazados y agentes SQL
Server
De Oracle a Amazon RDS AWS SCT puede añadir objetos de directorio en el árbol de objetos.
for Oracle: compatibilidad Para obtener más información, consulte Uso de Microsoft SQL
con objetos de directorio, Server como origen para Herramienta de conversión de esquemas de
espacios de tabla y funciones AWS (p. 45).
y privilegios de usuario
Compatibilidad con la versión Ahora, AWS SCT es compatible con IBM Db2 LUW versión 10.1.
10.1 de Db2
Problemas resueltos
Oracle a PostgreSQL: AWS SCT puede convertir archivos SQL*Plus a PSQL. El informe
informe de evaluación para la de evaluación muestra cómo ha convertido AWS SCT los archivos
conversión de SQL*Plus SQL*Plus a PSQL. Para obtener más información, consulte Uso de
Oracle como origen para Herramienta de conversión de esquemas de
AWS (p. 31).
Version 1.0
237
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 614
Compatibilidad con la versión Se agregó compatibilidad para convertir esquemas de Aurora MySQL
Aurora MySQL 5.7 5.7.
Oracle a Oracle RDS: Las migraciones de Oracle a Oracle RDS ahora admiten enlaces
compatibilidad con enlaces de base de datos. Para obtener más información, consulte Uso de
de base de datos Oracle como origen para Herramienta de conversión de esquemas de
AWS (p. 31).
Oracle a PostgreSQL: Las instrucciones SQL con BULK COLLECT (VARRAY) ahora se
conversión de SELECT INTO pueden convertir al migrar entre Oracle y PostgreSQL.
BULK COLLECT (VARRAY)
Emulación de objetos del Se agregó compatibilidad para convertir objetos del sistema de Oracle
sistema de Oracle a PostgreSQL. Para obtener más información, consulte Uso de
Oracle como origen para Herramienta de conversión de esquemas de
AWS (p. 31).
Microsoft SQL Server a AWS SCT ahora admite enlaces en los objetos almacenados durante
Microsoft SQL Server RDS: una migración a Amazon RDS. Para obtener más información, consulte
enlaces en los objetos de Uso de Microsoft SQL Server como origen para Herramienta de
almacenamiento conversión de esquemas de AWS (p. 45).
Microsoft SQL Server a AWS SCT ahora admite la conversión de PATINDEX durante una
PostgreSQL: PATINDEX migración a PostgreSQL. Para obtener más información, consulte Uso
de Microsoft SQL Server como origen para Herramienta de conversión
de esquemas de AWS (p. 45).
Microsoft SQL Server a Los objetos del sistema de SQL Server ahora se convierten a objetos en
PostgreSQL: acceso a los PostgreSQL. Para obtener más información, consulte Uso de Microsoft
objetos del sistema SQL Server como origen para Herramienta de conversión de esquemas
de AWS (p. 45).
Microsoft SQL Server a Se agregó compatibilidad con las funciones en línea. Para obtener más
PostgreSQL: creación de información, consulte Uso de Microsoft SQL Server como origen para
funciones en línea Herramienta de conversión de esquemas de AWS (p. 45).
Problemas resueltos
Version 1.0
238
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 613
Compatibilidad con DB2 LUW Se agregó compatibilidad con la migración de una base de datos DB2
como origen. Para obtener más información, consulte Convertir los
esquemas de base de datos utilizando el Herramienta de conversión de
esquemas de AWS (p. 99).
Se agregó la pestaña Se agregó una nueva pestaña Snowball para la migración de datos
Snowball a la migración de OLTP que muestra el estado actual de un dispositivo Snowball para
datos OLTP un proyecto concreto. Para obtener más información, consulte Uso de
agentes de extracción de datos (p. 144).
La comparación de Ahora puede ejecutar la comparación de esquemas con Oracle 10. Para
esquemas ahora es obtener más información, consulte Comparación de esquemas de bases
compatible con Oracle 10 de datos (p. 112)
SQL Server, autenticación de SQL Server. Se agregó la compatibilidad del método de conexión de
Windows autenticación de Windows.
Version 1.0
239
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 612
Conversión de SQL Server a Se agregó la compatibilidad con el tipo CITEXT. Ahora puede elegirlo
PostgreSQL con el tipo de datos mappint.
Conversión de Oracle a Ahora se puede convertir una matriz asociativa de Oracle a PostgreSQL.
PostgreSQL
Mapeo de tipos: mejoras Se agregó la capacidad de seleccionar tipos de datos de origen según la
en el mapeo de tipos longitud y la precisión.
personalizados
Problemas resueltos
Posterior a la versión 612 • Conversión de Oracle a Redshift. CAST a CHAR funciona, CAST a
CHARACTER no funciona.
• Los comentarios en tablas no se crean en el DDL de la base de datos
de Oracle de origen.
• La discrepancia de tipos no se marca en el informe de evaluación.
• Conversión de Oracle a PostgreSQL Se realiza una conversión
incorrecta del nombre de tabla de alfabeto en mayúsculas de ancho
completo al nombre de tabla de alfabeto en minúsculas de ancho
completo.
• La ventana de configuración global no se puede cerrar haciendo clic
en el botón Aceptar.
• Oracle a Redshift. La reescritura de to_date y de resta ofrece un
resultado distinto.
• Se han corregido algunos errores de la interfaz de usuario.
Version 1.0
240
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 612
Mapeo de tipos de datos Ahora puede configurar reglas de mapeo para cambiar el tipo de
personalizados datos de los objetos de almacenamiento. El tipo de datos que debe
modificarse se define en la pestaña Mapping Rules (Reglas de mapeo).
Se ha añadido una opción Una nueva opción "What's New" (Novedades) en el menú Help (Ayuda)
con las novedades muestra todas las características principales que se han añadido a esta
versión.
Problemas resueltos
Posterior a la versión 611 • APPLY se reconoce como palabra clave para Oracle.
• Se ha corregido un error al ejecutar la comparación de esquemas para
un proyecto de Oracle a Oracle.
• Mejoras generales basadas en los comentarios y correcciones de
errores para las migraciones de Microsoft SQL Server a Microsoft SQL
Server.
• Falta DROP FOREIGN KEY CONSTRAINTS cuando se utiliza Save
as SQL (Guardar como SQL) para las migraciones de Oracle a
PostgreSQL.
• Correcciones de errores de conversión en las funciones TO_DATE y
TRUNC para las migraciones de Oracle a Redshift.
• Mejoras generales basadas en los comentarios y correcciones de
errores para las migraciones de PostgreSQL a PostgreSQL.
• Mejoras generales basadas en los comentarios y correcciones de
errores para las migraciones de MySQL a MySQL.
• Mejoras generales basadas en los comentarios y correcciones de
errores para las migraciones de Oracle a Oracle.
• Se han corregido algunos errores de la interfaz de usuario.
• Reescritura de NUMTOINTERVL() para un literal de intervalo de
Redshift para las migraciones de Oracle a Redshift.
• Optimización del desempeño.
Version 1.0
241
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 611
Conversión de instrucciones Se ha añadido la primera versión que admite conversión del paquete
dinámicas de Oracle a DBMS_SQL. Para obtener más información, consulte Conversión de
PostgreSQL SQL dinámico para migraciones de Oracle a PostgreSQL.
Abrir el archivo de registro Si aparece un error, puede hacer clic en él para obtener acceso al
desde el mensaje de error archivo log asociado, en lugar de tener que buscarlo por todo el sistema
de origen.
Migración de datos OLAP. Después de una migración a Amazon Redshift, el agente puede
Se ha añadido la opción de conservar o eliminar los archivos cargados. Para obtener más
no eliminar archivos en S3 información, consulte Optimización de Amazon Redshift mediante AWS
después de una copia de Schema Conversion Tool .
Redshift
Migración de datos OLAP. Se ha añadido la posibilidad de migrar columnas de LOB. Para obtener
Se ha añadido compatibilidad más información, consulte Migración de LOB a Amazon Redshift.
con la migración de LOB para
Greenplum, Vertica, Netezza
y Microsoft SQL Server.
Se ha añadido la capacidad Cuando AWS SCT transforma el objeto de origen en varios objetos de
de ver objetos relacionados destino, ahora puede ver una lista completa de los objetos relacionados
para conversiones como que se han creado. Para obtener más información, consulte Búsqueda
Oracle en MySQL o Aurora de objetos transformados relacionados .
para MySQL y Microsoft SQL
en MySQL o Aurora para
MySQL.
Version 1.0
242
Schema Conversion Tool de AWS Guía del usuario
Notas de la versión:– 611
Capacidad de ocultar Puede decidir qué objetos e información de sus esquemas desea ver
esquemas en la vista de árbol en la vista de árbol. Para obtener más información, consulte Ocultar
esquemas en la vista de árbol de AWS SCT .
Compatibilidad con Ahora puede administrar tablas sin particiones de gran tamaño mediante
particiones virtuales la creación de subtareas que creen particiones virtuales de los datos
de la tabla utilizando reglas de filtrado. Para obtener más información,
consulte Uso de particiones virtuales con Herramienta de conversión de
esquemas de AWS (p. 164).
Problemas resueltos
Version 1.0
243
Schema Conversion Tool de AWS Guía del usuario
Historial de revisión
En la siguiente tabla se describen los cambios importantes en la guía del usuario de AWS Schema
Conversion Tool después de enero de 2018.
Puede suscribirse a una fuente RSS para recibir notificaciones de las actualizaciones de esta
documentación.
AWS SCT compilación #1.0.628 Compatibilidad con la emulación June 22, 2019
de servicios para conversiones
de DB2, SQL Server y Oracle.
Mejoras de las conversiones a
Amazon Redshift, incluida más
compatibilidad con cursores y
procedimientos almacenados.
AWS SCT compilación #1.0.627 Compatibilidad con las May 31, 2019
conversiones de SQL Server a
Version 1.0
244
Schema Conversion Tool de AWS Guía del usuario
procedimientos almacenados en
Amazon Redshift Mejoras en las
conversiones a PostgresSQL 11
y MySQL 8.0.
AWS SCT compilación #1.0.626 PostgresSQL 11 y MySQL 8.0 April 26, 2019
son ahora objetivos compatibles.
SAP ASE 15.5 es ahora una
fuente compatible.
AWS SCT compilación #1.0.625 Las actualizaciones incluyen March 25, 2019
la capacidad de convertir
Teradata BTEQ a AWS Glue,
compatibilidad con conversiones
a MariaDB 10.3 con modo de
compatibilidad con Oracle,
compatibilidad con SAP ASE
15.7 y sustituciones de servicio
para emular la funcionalidad que
falta.
AWS SCT compilación #1.0.624 Las actualizaciones incluyen February 22, 2019
la capacidad de convertir ETL
de Oracle a AWS Glue, y
compatibilidad de conversiones
de Microsoft SQL Server, Oracle
y IBM Db2 LUW a Amazon
RDS for MariaDB. También se
ha agregado compatibilidad
con conversiones de SAP ASE
a RDS for MySQL y Amazon
Aurora con compatibilidad con
MySQL. Además, hemos añadido
compatibilidad con la extensión
Orafce durante la conversión de
Oracle a PostgreSQL.
AWS SCT compilación #1.0.623 Las actualizaciones incluyen January 25, 2019
la capacidad de convertir las
bases de datos de SAP ASE
y la capacidad de convertir
scripts de T-SQL, DML y DDL
en código o componentes
equivalentes. También se han
añadido emulaciones de Oracle
y Microsoft SQL Server para
mejorar las conversiones.
AWS SCT compilación #1.0.622 Las actualizaciones incluyen December 20, 2018
Workload Qualification
Framework, que analiza la
carga de trabajo de la migración
completa, incluida la base de
datos y las modificaciones de la
aplicación.
Version 1.0
245
Schema Conversion Tool de AWS Guía del usuario
AWS SCT compilación #1.0.621 Entre las actualizaciones se November 21, 2018
incluyen la compatibilidad con
Aurora PostgreSQL 10 como
destino y la capacidad de
migrar desde Netezza utilizando
opciones de tablas externas.
AWS SCT compilación #1.0.620 Entre las actualizaciones se October 22, 2018
incluyen la capacidad de guardar
scripts SQL y compatibilidad con
cursores globales de Oracle al
migrar a MySQL.
AWS SCT compilación #1.0.619 Las actualizaciones incluyen September 20, 2018
soporte para migrar desde
Apache Cassandra a DynamoDB
y compatibilidad con Vertica 9
como origen.
AWS SCT compilación #1.0.618 Las actualizaciones incluyen August 24, 2018
informes de evaluación
ampliados, compatibilidad para
convertir las pseudocolumnas
ROWID de Oracle y
compatibilidad con las tablas
definidas por el usuario de SQL
Server.
AWS SCT compilación #1.0.617 Las actualizaciones incluyen July 24, 2018
informes de evaluación
ampliados, compatibilidad para
convertir las pseudocolumnas
ROWID de Oracle y
compatibilidad con las tablas
definidas por el usuario de SQL
Server.
AWS SCT compilación #1.0.616 Las actualizaciones incluyen June 26, 2018
compatibilidad con RDS al
convertir de Oracle a Amazon
RDS for Oracle y al convertir
objetos de programación de
Oracle, así como compatibilidad
con trabajos de Oracle.
Particiones y Db2 LUW versión
10.1.
AWS SCT compilación #1.0.615 Las actualizaciones permite May 24, 2018
convertir SQL Server a
instrucciones GOTO de
PostgreSQL, particiones de
PostgreSQL 10 y Db2 LUW
versión 10.1.
Version 1.0
246
Schema Conversion Tool de AWS Guía del usuario
Actualizaciones anteriores
AWS SCT compilación #1.0.614 Las actualizaciones permite April 25, 2018
convertir de Oracle a Oracle DB
Links, de SQL Server a funciones
insertadas de PostgreSQL y
emulación de objetos del sistema
de Oracle.
AWS SCT compilación #1.0.613 Las actualizaciones incluyen March 28, 2018
compatibilidad de Db2 LUW,
conversión de archivos de
SQL*Plus y autenticación de
Windows en SQL Server.
AWS SCT compilación #1.0.612 Las actualizaciones incluyen February 22, 2018
compatibilidad con la asignación
de tipos de datos personalizados,
comparación de esquemas
de Oracle 10 y conversión de
variables globales de Oracle a
PostgreSQL.
AWS SCT compilación #1.0.611 Las actualizaciones incluyen January 23, 2018
compatibilidad de Oracle con
instrucciones dinámicas de
PostgreSQL, la apertura de un
archivo log seleccionando un
mensaje de error y la capacidad
de ocultar esquemas en la vista
de árbol.
Actualizaciones anteriores
En la siguiente tabla se describen los cambios importantes en la guía del usuario de AWS Schema
Conversion Tool antes de enero de 2018.
Version 1.0
247
Schema Conversion Tool de AWS Guía del usuario
Actualizaciones anteriores
1.0.603 Filtros de A partir de ahora, podrá filtrar los datos que 16 de junio de
soporte de extraen los agentes de extracción de su data 2017
agentes de warehouse. Para obtener más información,
extracción de consulte Creación de filtros de extracción de
datos datos en la Herramienta de conversión de
esquemas de AWS (p. 153).
Version 1.0
248
Schema Conversion Tool de AWS Guía del usuario
Actualizaciones anteriores
Version 1.0
249
Schema Conversion Tool de AWS Guía del usuario
Actualizaciones anteriores
Version 1.0
250
Schema Conversion Tool de AWS Guía del usuario
Actualizaciones anteriores
Version 1.0
251
Schema Conversion Tool de AWS Guía del usuario
Actualizaciones anteriores
1.0.301 SSL Support Ahora puede usar la capa de conexión segura 19 de mayo de
(SSL) para conectarse a su base de datos 2016
de origen cuando utilice la Herramienta de
conversión de esquemas de AWS.
Version 1.0
252