Skip to main content

Databricksボリューム

接続タイプ

ODBC (64ビット)

ドライバー設定要件

ホストはDatabricks Unity CatalogクラスターJDBC/ODBCサーバーのホスト名である必要があります。

サポートのタイプ

インデータベース書き込み

検証済み

DatabricksクラスターおよびSQLウェアハウス、Simba Apache Sparkドライバー2.6.23.1039

ドライバーの詳細

インデータベース処理には、64ビットのデータベースドライバが必要です。

接続に使用する Alteryx ツール

インデータベースのワークフロー処理

接続In-DB ツール

Blue icon with database being plugged in.

データストリーム入力ツール

Blue icon with a stream-like object flowing into a database.

注意

  • Databricksボリュームは、DCM使用時のみサポートされます。

  • Databricksボリュームは、DSNレス接続使用時のみサポートされます。

  • Databricksボリュームは、Unity Catalogでのみサポートされます。

  • Databricks Unity Catalogへの書き込みは、In-DBツール を使用する場合のみサポートされています。

  • Alteryxは、Databricks Unity Catalog用のMergeInDBをサポートしています。データ書込In-DBツールを参照してください。

In-DB接続の設定

  1. [In-DB接続の管理]ウィンドウを開きます。

  2. [データソース]ドロップダウンで[Databricks Unity Catalog]を選択します。

  3. [新規] を選択して新しい接続を作成します。

  4. 接続名を入力します。

  5. [読み取り] タブで [接続セットアップ] を選択して、Databricks Unity CatalogのDCM接続マネージャーを開きます。DCM接続マネージャーは、Simba Databricks Unity Catalog経由Apache Spark ODBC DSNレス 接続のみを表示するように事前にフィルタリングされています。

  6. 既存の接続を選択するか、[+新規] を選択して新しい接続を作成します。DCMを使用して新しい接続を設定するには、Databricks Unity Catalogを参照してください。

  7. [書き込み]タブで、ドロップダウンから[Databricks UC Volumesバルクローダー(Avro)]を選択します。

  8. [接続セットアップ]を選択して、Databricks接続のDCM接続マネージャーを開きます。DCM接続マネージャーは、[Databricks UC Volumes経由Apache Spark ODBCバルクDSNレス]接続のみを表示するように事前にフィルタリングされています。

  9. 既存の接続を選択するか、[+新規] を選択して新しい接続を作成します。DCMを使用して新しい接続を設定する方法については、以下を参照してください

  10. [適用] と [OK] を選択して接続を保存し、ウィンドウを閉じます。

  11. [In-DB接続の管理]に接続In-DBツールからアクセスした場合は、[テーブルの選択またはクエリを指定]ウィンドウが読み込まれ、テーブルを選択できます。

DCMでDatabricks UC Volumes経由Apache Spark ODBCバルクDSNレスを設定する

この接続は、ボリュームのステージングを使用したDatabricks Unity Catalogへのデータ書き込みに使用されます。

  1. [データ接続マネージャー]を開き、[Databricks UC Volumes経由Apache Spark ODBCバルクDSNレス]に移動します。

    - 入力ツールまたは[In-DB接続の管理]から、DCMは事前にフィルタリングされています。

    - [ファイル]メニューから、[ファイル] > [接続を管理] > [+新規] > [Apache Spark] > [Databricks UC Volumes経由Apache Spark ODBCバルクDSNレス]の順に移動します。

  2. データソース名 を入力します。

  3. Databricks Unity Catalogのホスト 名を入力します。

  4. 既定ではポートは443に設定されます。必要に応じて変更します。

  5. httpパスを入力します。httpパスは、DatabricksコンピューティングリソースのURLです。

  6. カタログ を入力します。これにより、データの書き込みとテーブルの作成に使用するカタログが設定されます。

  7. スキーマ を入力します。これにより、データの書き込みとテーブルの作成に使用するスキーマが設定されます。

  8. Databricksボリュームのフルパスを、/Volumes/<catalog>/<schema>/<volume>/<path/to/folder>の形式で入力します。

  9. [保存] を選択して、データソースを保存します。

  10. [+資格情報の接続] を選択して、資格情報を追加します。

    1. [認証方法] を選択します。

    2. 個人のアクセストークンを使用するには、認証方法に[ユーザー名とパスワード]を選択し、ユーザー名を「トークン」にします。

    3. Azure ADを使用するには、「Databricks Azure OAuth認証」を参照してください。

    4. [既存の資格情報] を選択する か、[新しい資格情報の作成] を選択して新しい資格情報を作成し、個人のアクセストークンまたはAzure ADの情報を入力します。

  11. [リンク] を選択して、資格情報をデータソースにリンクします。

  12. 接続を選択します。