Skip to main content

Amazon Redshift

连接类型

ODBC(64 位)

支持类型

读取和写入、数据库内

验证版本

数据库版本:1.0.35649

ODBC 客户端版本:1.5.2.1002

如需详细了解 Simba Athena ODBC 驱动程序,请参阅 Simba ODBC 文档。

注意

为避免在将工作流保存到 Server 时发生错误,请选中 Simba Amazon Redshift ODBC 驱动程序 DSN 设置 中的 密码加密对象:这台计算机的所有用户 复选框。

用于连接的 Alteryx 工具

标准工作流处理

输入数据工具 Input Data Tool

Input Data Tool Icon

输出数据工具 Output Data Tool

Output Data Tool Icon

数据库内工作流处理

Blue icon with database being plugged in.
Blue icon with a stream-like object flowing into a database.

Azure AD 身份验证

Alteryx 为 Redshift 启用企业级身份验证,允许您在 Redshift 中访问数据时利用 Azure Active Directory 标识。

先决条件:

  1. Azure Active Directory 和 Amazon Redshift 之间的安全集成。

  2. Azure AD 用户已设置对 AWS Redshift 实例的访问权限。

如需详细了解如何将 Azure AD 与 Redshift 集成,请参阅社区文章。

配置 ODBC 连接

在 ODBC 数据源管理程序中...

  1. 选择 Redshift 驱动程序,然后选择 配置

  2. 输入 连接 设置 和凭证。

  3. 其他 选项 区域中,选择 将所有结果检索到内存 选项。

    注意

    此设置会将整个数据集提取到物理内存中。如果物理内存不足,此设置将根据数据卷和可用物理内存进行更改,您可能需要让 DBA 参与推荐设置。

  4. 选择 确定 以保存连接。

配置 Amazon Redshift 批量连接

要通过“输出数据”工具使用批量连接...

  1. 选择 写入文件或数据库 下拉列表,然后选择 其他数据库 > Amazon Redshift 批量

  2. 选择 数据源名称 (或者选择 ODBC 管理员 创建一个)。查看 ODBC 和 OLEDB 数据库连接

  3. (可选)输入 用户名 密码

  4. Amazon S3 区域中,输入或粘贴 AWS 访问密钥 AWS 密钥 以访问要上传的数据。

  5. 密钥加密 下拉列表中,选择一个加密选项:

    • 隐藏 :使用最少的加密隐藏密码。

    • 机器加密 :计算机上的任何用户都可以完全使用连接。

    • 用户加密 :登录用户可以在任何计算机上使该连接。

  6. 端点 下拉列表中,选择 默认值 以允许 Amazon 根据您选择的存储桶自动确定端点。要为私人 S3 部署指定一个终端节点,或者如果您知道特定的存储桶区域,则可以选择一个终端节点(S3 区域),输入自定义终端节点,或从 从十个先前输入的自定义终端节点中选择一个。

    如果您选择的存储桶不在指定的端点区域中,则会发生以下错误:“您尝试访问的存储桶必须使用指定的端点进行寻址。请将以后的所有请求发送到此端点。”选择 默认值 以清除错误。

  7. (可选)选择 使用 Signature V4 进行身份验证 ,以使用 Signature Version 4 取代默认的 Signature Version 2。这将提高安全性,但连接速度可能会变慢。对于需要 Signature Version 4 的区域,此选项将自动启用。

    需要 Signature Version 4 的区域 :2014 年 1 月 30 日后创建的区域仅支持 Signature Version 4。这些区域需要 Signature Version 4 的身份验证:

    • 美国东部(俄亥俄)地区

    • 加拿大(中部)地区

    • 亚太地区(孟买)地区

    • 亚太地区(首尔)地区

    • 欧盟(法兰克福)地区

    • 欧盟(伦敦)地区

    • 中国(北京)地区

  8. 选择一种 服务器端 加密 方法以上传到加密的 Amazon S3 存储桶。如需详细了解 Amazon S3 加密方法,请参阅 《Amazon Simple Storage Service 开发人员指南》

    • None (Default): 不使用加密方法。

    • SSE-KMS :使用 AWS KMS 托管密钥的服务器端加密。酌情提供 KMS 密钥 ID 。当您选择此方法时, 使用 Signature V4 进行身份验证 将默认启用。

  9. 存储桶名称 中输入存储数据对象的 AWS 存储桶的名称。

酌情选择 使用 Redshift Spectrum 连接到 Spectrum 表。

字段映射

将数据批量加载到 Amazon Redshift 时,如果工作流输出中的字段顺序与 Redshift 数据库中的字段顺序不同,则数据将写入不正确的字段。要解决此问题:

  1. 选择 输出数据 工具中的 附加字段映射 选项来配置它,即使您没有更改默认设置。在输出数据工具的工作流 XML 中,这将填充 <AppendMapping mode="ByName" /> 标记。

  2. 输出选项 更改为 覆盖表格(删除)

配置输出选项

您可以选择指定或调整以下 Redshift 选项。如需了解详情,请参阅 Amazon Redshift 数据库开发人员指南

注意

要使用输出数据工具创建 Spectrum 表,请指定架构和表格名称。

spectrum_schema.tablename

如果未为“分配样式”选择“键”,则忽略“分配键”。如果为“排序样式”选择了“无”,则忽略“排序键”。

  • :为“主键”选择列并调整列的顺序。

  • 分配 样式 :选择 EVEN KEY ALL

  • 分配 :为“分配键”选择一列。

  • 排序 样式 :选择 复合 交错

  • 排序 :为“排序键”选择列并调整列的顺序。

  • 启用 Vacuum 和 Analyze 操作 :(仅限批量连接)默认情况下已启用。启用后,在将批量加载 APPEND 至 Redshift 数据库后,将执行 VACUUM 和 ANALYZE 维护命令。

  • 批量加载数据块大小(1 MB 至 102400 MB): 为了提高上传性能,大型文件被拆分为指定整数大小的较小文件(以兆字节为单位)。默认值为 128。

  • 启用反斜杠 (\) 作为转义字符: (仅限批量连接)默认情况下已启用。启用后,紧邻反斜杠字符的字符将作为列数据加载,即使该字符通常用于特殊用途(如分隔符、引号、嵌入换行符或转义字符)。

重要

标识符在数据库中将折叠成小写。在查询结果中,表格名称和列名称默认以小写形式返回。如需了解详情,请参阅 Amazon 名称和标识符 文档。

已知问题

  • 将记录插入 Amazon Redshift 表格时,如果该表格的列包含属性 IDENTITY(seed, step),则要插入的第一列的值为 Null,而不是传递到输出数据工具的值。