context
stringclasses 6
values | source
stringlengths 0
149
| response
stringlengths 4
1.6k
| instruction
stringlengths 5
137
| category
stringclasses 1
value |
---|---|---|---|---|
https://qiita.com/taka_yayoi/items/075c6b3aeafac54c8ac4 | 大きく分けて、分散ファイルシステム向けコマンドとローカルファイルシステム向けコマンドに分けて考えるといいかと思います。名前の通り、それぞれのファイルシステムがデフォルトになります。そして、Databricksでは上述のコマンドのいずれにおいても、DBFS、ローカルファイルシステムにアクセスすることができるのですが、明示的に指示をしない場合、デフォルトのファイルシステムにアクセスします。指示する方法は以下の通りです。1. 分散ファイルシステム向けコマンドでローカルファイルシステムにアクセスする場合: パスの先頭にfile:/を追加2. ローカルファイルシステム向けコマンドでDBFSにアクセスする場合: パスの先頭に/dbfsを追加 | Databricksでファイルを読み書きする際にパスをどう指定すればいいだろう? | closed_qa |
|
https://qiita.com/taka_yayoi/items/075c6b3aeafac54c8ac4 | 大きく2点があると思います。1. ファイルシステムが2種類(Databricksファイルシステム / ドライバーノードのローカルファイルシステム)あることがわかりにくい。2. 使っているAPIに応じてパスの書き方を変える必要があることがわかりにくい | Databricksでファイルを読み書きするのになぜ難しいと感じるのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/075c6b3aeafac54c8ac4 | ファイルシステムが2種類あります。一つ目はDatabricksファイルシステム。Databricksでファイルの永続化に使用するDBFS(Databricksファイルシステム)が存在します。これは、お客さまのクラウドアカウントに構築されるデータプレーン上のオブジェクトストレージ(S3やADLS)を用いて構成される、仮想的なファイルシステムです。2つ目はSparkクラスターのドライバーノードのローカルストレージ。Databricksで計算資源を利用する際は、お客さまクラウドアカウント上に構築されるデータプレーン上にDatabricksクラスター(Apache Sparkクラスター)を構成し、これにノートブックをアタッチして処理を実行します。クラスターの実態はAWSであればEC2、AzureであればVMになります。当然これらにはローカルのストレージがアタッチされています。また、Sparkクラスターはドライバーノードとワーカーノードから構成されていますが、ユーザーは通常ドライバーノードにSparkジョブを投入して結果を受け取るというように、ドライバーノードとやり取りを行います。これは、Databricksでも同様です。ノートブックをDatabricksにアタッチして処理を実行する際はドライバーノードとやり取りを行い、Sparkの並列分散処理はドライバーノードからワーカーノードに指示を行うことで実行され、結果がドライバーノードに戻され、その結果がノートブックに表示されます。この処理の過程でローカルストレージにファイルを保存することが可能です。 | Databricksにあるファイルシステムは何種類があるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/075c6b3aeafac54c8ac4 | ファイルの永続化に使えるのは①のDBFSだけです。クラスターのドライバーノードのローカルストレージは揮発性であり、クラスターを停止すると全てが失われます。このことを理解しておかないと、せっかく準備したデータがなくなってしまった!ということになりかねません。ですので、計算処理過程での中間ファイルなどはローカルストレージに保存し、処理結果のファイルの永続化はDBFSで行うということを意識することが重要となります。もう一つ重要な違いとして、DBFSはオブジェクトストレージで動作しているので、ランダムアクセスはサポートされていません。DBFSにおいてランダムアクセスが発生するような書き込み(例:zip)を行おうとするとエラーになります。この場合、こちらで説明している様にローカルファイルシステム上でzipファイルを作成してから、DBFSにコピーしてください。 | 2つのファイルシステム(Databricksファイルシステム / ドライバーノードのローカルファイルシステム)あることがわかりにくい)の違いは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/075c6b3aeafac54c8ac4 | アクセスする先が違うので、そのことをDatabricksに教えてあげないといけないためです。 | なぜ、使っているAPIに応じてパスの記述方法を変えなくてはいけないのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/89318c12b58e05c728f6 | 過度なクラウドデータストレージのコストを削減するために、すべてのテーブルに対してVACUUMを定期的に実行することをお勧めします。vacuumのデフォルト保持期間は7日間です。閾値を高く設定すると、より長いテーブル履歴にアクセスすることができますが、格納されるデータファイルの数が増加し、クラウドプロバイダーのストレージコストを増加させることになります。 | どの程度の頻度でVACUUMを実行すべきですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/89318c12b58e05c728f6 | Delta Lakeには、危険なVACUUMコマンドの実行を防ぐ安全チェック機能があります。指定しようとしている保持期間よりも長い時間実行されるオペレーションが存在しないことが確実である場合には、Spark設定spark.databricks.delta.retentionDurationCheck.enabledをfalseに設定することで、安全チェック機能をオフにすることができます。警告!テーブルに対するリーダー、ライターの同時実行によって、古いスナップショットやコミットされていないファイルが使用されている場合があるので、保持期間の最小値は7日間にすることをお勧めします。VACUUMがアクティブなファイルをクリーンアップすると、同時実行されているリーダーが失敗することがあり、さらに悪いケースでは、VACUUMがコミットされていないファイルを削除するとテーブルが破損する場合があります。最長の同時実行トランザクション期間や、テーブルに対する最新の更新に対してすべてのストリームが遅延する最長期間よりも長い期間を選択すべきです。 | 低い保持期間の閾値でDeltaテーブルをVACUUMできないのはなぜですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/641b9c22e22071c7c17c | お使いのアイデンティティプロバイダーからご自身のDatabricksアカウントにユーザーやグループが自動で同期される様に、SCIMプロビジョニングを使用することをお勧めします。SCIMはDatabricksにユーザーやグループを作成するためにアイデンティティプロバイダーを使用するので、新たな従業員やチームのオンボーディングを容易にし、適切なアクセスレベルを付与します。ユーザーが組織を去ったり、Databricksにアクセスする必要がなくなった場合には、管理者はアイデンティティプロバイダーでユーザーを無効化すると、そのユーザーアカウントはDatabricksからも削除されます。これによって、一貫性のあるオフボーディングを確実なものにし、許可されないユーザーがセンシティブなデータにアクセスすることを防ぐことができます。Databricksを使用しようとしているすべてのユーザーとグループのすべてを、個々のワークスペースではなくアカウントコンソールに同期する様にすべきです。これによって、アカウント内にあるすべてのワークスペースにおいて、すべてのアイデンティティの一貫性のある状態を保つために、一つのSCIMプロビジョニングアプリケーションを設定するだけで済む様になります。ワークスペースですでにワークスペースレベルのSCIMプロビジョニングをセットアップしているのであれば、アカウントレベルのSCIMプロビジョニングを有効化し、ワークスペースレベルのSCIMプロビジョンをオフにすべきです。アイデンティティフェデレーションへのアップグレードをご覧ください。 | お使いのアイデンティティプロバイダーからユーザー、グループをどのようにDatabricksアカウントに同期するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/641b9c22e22071c7c17c | シングルサインオン(SSO)を用いることで、組織のアイデンティティプロバイダーを用いてユーザーを認証できる様になります。セキュリティ強化とユーザビリティの改善のためにSSOを設定することをお勧めします。アカウントとそれぞれのワークスペースでSSOを設定する必要があります。アカウントにおいて、アカウントとすべてのワークスペースで同じアイデンティティプロバイダーのSSOを設定する必要があります。望ましくは、アカウントレベルのSSO設定にOICDを用いて、認証機能のサポートを確実なものとします。ワークスペースでSSOを設定したら、パスワードアクセスコントロールを設定すべきです。パスワードアクセスコントロールによって、REST APIの認証でユーザー名、パスワードを使用できなくすることができます。代わりに、ユーザーはパーソナルアクセストークンを用いてREST APIの認証を行うべきです。すべてのワークスペースユーザーに対してパスワードに対するCan Use権限を許可しないことをお勧めします。パーソナルアクセストークンの詳細については、Manage personal access tokensをご覧ください。 | シングルサインオン(SSO)をどのように設定するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/641b9c22e22071c7c17c | アイデンティティフェデレーションによって、アカウントコンソールでユーザー、サービスプリンシパル、グループを設定することができ、これらのアイデンティティを特定のワークスペースに割り当てることができる様になります。これによって、Databricksにおける管理とデータガバナンスをシンプルなものにします。アイデンティティフェデレーションを用いることで、それぞれのワークスペースで設定を繰り返すことなしに、アカウントコンソールでユーザー、サービスプリンシパル、グループを設定できます。これによって、新たなチームのDatabricksへのオンボーディングにおける摩擦を削減し、ワークスペースごとのSCIMプロビジョニングアプリケーションを別々に管理するのではなく、Databricksアカウントに対してアイデンティティプロバイダーを用いた一つのSCIMプロビジョニングアプリケーションを管理するだけで済む様になります。アカウントにユーザー、サービスプリンシパル、グループが追加されると、それらの権限をワークスペースに割り当てることができます。アイデンティティフェデレーションが有効化されたワークスペースに対してのみ、アカウントレベルのアイデンティティのアクセスを割り当てることができます。ワークスペースでアイデンティティフェデレーションを有効化するには、管理者はどのようにワークスペースのアイデンティティフェデレーションを有効化するのか?をご覧ください。 | アイデンティティフェデレーションをどのように有効化するか | closed_qa |
|
https://qiita.com/taka_yayoi/items/641b9c22e22071c7c17c | ワークスペースでアイデンティティフェデレーションが有効化されたので、当該ワークスペースでアカウントアクセス権限をユーザー、サービスプリンシパル、グループを割り当てることができます。ワークスペースの権限をユーザー個人ではなく、ワークスペースにはグループの権限を割り当てることをお勧めします。すべてのDatabricksアイデンティティはグループのメンバーとして割り当てることができ、メンバーはグループに割り当てら得れた権限を継承します。 | グループにワークスペース権限をどのように割り当てるか? | closed_qa |
|
パイプラインが効率的かつメンテナンスしやすくなる様に、パイプラインのクエリーを実装する際に、テーブルかビューかベストなデータセットタイプを選択する様にしましょう。以下のケースではビューの使用を検討してください: 1. 管理しやすいクエリーに分割したいと考える大規模かつ複雑なクエリーである場合。2. エクスペクテーションを用いて中間結果を検証したい場合。3. ストレージコスト、計算コストを削減したいと考えており、クエリー結果のマテリアライゼーションが不要な場合。テーブルはマテリアライゼーションされるので、計算コストとストレージリソースを必要とします。以下のケースではテーブルの使用を検討してください: 1. 複数の後段のクエリーがテーブルを使用する場合。ビューはオンデマンドで計算されるので、クエリーされるたびにビューは再計算されます。2. 開発中にクエリーの結果を参照したい場合。テーブルはマテリアライズされるので、パイプラインの外で参照、クエリーすることができ、開発中にテーブルを用いることは、計算処理の適切性の検証の役に立ちます。検証後に、マテリアライゼーションが不要なクエリーをビューに変換します。 | Delta Live Tablesのテーブルとビューの選択基準は何? | closed_qa |
||
https://qiita.com/taka_yayoi/items/ef4e4488eaafb1125869 | パイプラインをどの様に分割するのかを決定する際、以下の点を検討してください。以下のケースでは大規模パイプラインにしてください: 1. クラスターリソースをより効率的に活用したい。2. ワークスペースのパイプライン数を削減したい。3. ワークフローのオーケストレーションの複雑性を削減したい。以下のケースでは複数のパイプラインにしてください。1. チーム境界で機能を分割したい場合。例えば、あなたのデータチームではデータを変換するためのパイプラインを維持管理し、データアナリストは変換データを分析するパイプラインを維持管理する場合。2. 結合度を削減し、共通機能の再利用を促進するために、アプリケーション固有の境界で機能を分割する場合。 | Delta Live Tablesのパイプラインをどの様に分割するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef4e4488eaafb1125869 | パイプラインにおけるクラスターの使用率を最適化するために、強化オートスケーリングを使いましょう。強化オートスケーリングは、リソースの追加によってパイプラインの処理スピードを改善するとシステムが判断した時のみリソースを追加します。不要になるとすぐにこれらのリソースは解放され、すべてのパイプラインのアップデートが完了するとクラスターはシャットダウンします。プロダクションパイプラインで強化オートスケーリングを設定する際には、以下のガイドラインを使用してください。1. Min workersの設定はデフォルトのままにしてください。2. 予算とパイプラインの優先度に基づいて、Max workersを設定してください。3. Delta Live Tablesランタイムが、ワークロードにベストなインスタンスタイプを選択できる様に、インスタンスタイプは未設定の状態にしてください。 | Delta Live Tablesのパイプラインにおけるクラスターの使用率をどうやって最適化するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f674b0b8857bca7a5c98 | はい、DatabricksではPythonだけではなく、Rを活用して機械学習モデルをトレーニングして、MLflowを用いてトラッキングすることもできます。Rを得意とされる方も是非試してみてください! | RからMLflowを活用することが可能でしょうか? | closed_qa |
|
https://qiita.com/maroon-db/items/d7a1de2a274da1c0ac23 | 以下の流れでアクセスします。1. DeltaSharing受信者の作成, 2. アクティベーションリンク発行 & クレデンシャル情報, 3. 共有オブジェクトの作成, 4. ローカルPCからアクセス | Delta Sharingを使ってローカルPCからDatabricksのデータにアクセスする方法は? | closed_qa |
|
https://qiita.com/maroon-db/items/0cc0f55501052f76da8d | Delta Sharingを利用するとDatabricks to Databricksもしくは Databricks to Open(DeltaSharing Client)間でデータ共有が行えるようになります。共有といってもReadOnlyなので一方通行ですが、他のデータブリックス環境で作成されたデータを、どのデータブリックス環境(もちろん許可された)からアクセス出来るようになったら、データ活用の幅が広がる気がします。 | Azure Databricks と AWS Databricks 間でデータ共有はどうすればいいか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/58ec90a941eff556d02a | Databricksランタイムには、標準的なPythonパッケージの一つとしてpandasが含まれており、Databricksのノートブックやジョブでpandasデータフレームを作成、活用することができます。Databricksランタイム10.0以降では、Pandas API on SparkがPySparkデータフレーム上における馴染み深いpandasコマンドを提供しています。また、pandasデータフレームとPySparkデータフレームの間で変換を行うことができます。Apache Sparkには、PySparkデータフレームに直接pandasの変換処理を適用できるpandas function APIの形でPythonロジックを実行するArrow最適化処理が含まれています。また、Apache Sparkでは、Pythonで定義された任意のユーザー関数に対して同様のArrow最適化を活用するpandas UDFもサポートしています。 | Databricksでpandasは使えるのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/58ec90a941eff556d02a | Databricksのさまざまな場所にデータを格納するためにpandasを使用することができます。どこにデータを格納し、どこからデータをロードできるのかは、ワークスペース管理者による設定に依存します。注意!クラウドオブジェクトストレージにプロダクションのデータを格納することをお勧めします。Working with data in Amazon S3をご覧ください。Unity Catalogが有効化されたワークスペースをお使いの際には、外部ロケーションのクラウドストレージにアクセスすることができます。Unity Catalogにおける外部ロケーションとストレージ認証情報の管理をご覧ください。 | pandasはDatabricksのどこにデータを格納するのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/58ec90a941eff556d02a | Databricksでは、探索のためにワークスペースにデータをアップロードするために、数多くの選択肢を提供しています。pandaによるデータロードで望ましい方法は、データをどのようにワークスペースにロードするのかによって変化します。ローカルマシン上にノートブックと一緒に小規模なデータファイルを格納していたのであれば、データとコードを一緒にReposにアップロードすることができます。データファイルをロードするために相対パスを使うことができます。Databricksではデータロードに対する数多くのUIベースのオプションを提供しています。これらのオプションの多くは、あなたのデータをDetlaテーブルとして保存します。そして、SparkデータフレームにDeltaテーブルを読み込み、それをpandasデータフレームに変換することができます。DBFSや相対パスを用いてデータファイルを保存している場合には、これらのデータファイルを再ロードするためにDBFSや相対パスを使用することができます。以下のコードではサンプルを示しています。 | Databricksではpandasを用いてどの様にデータをロードするのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/58ec90a941eff556d02a | はい、可能です。pandasと完全修飾のURLを用いることで、S3から直接データをロードすることができます。クラウドのデータにアクセスするためにクラウドの認証情報を指定する必要があります。 | pandasを用いてS3から直接データをロードすることが可能でしょうか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b34b89d8e158935c3095 | Unity Catalogは、DatabricksレイクハウスにおけるデータとAIに対するきめ細かいガバナンスソリューションです。データアクセスを集中的に管理、監査できる場所を提供することで、データに対するセキュリティ、ガバナンスをシンプルにする助けとなります。以下の図では、Unity Catalogにおける主要なセキュリティ保護可能オブジェクトを示しています。メタストアはUnity Catalogにおけるトップレベルのコンテナです。データ資産(テーブルやビュー)とそれらに対するアクセスを管理する権限を格納します。Databricksのアカウント管理者はメタストアを作成し、どのワークロードがどのメタストアを使用するのかをコントロールするためにDatabricksワークスペースに割り当てることができます。オペレーションを行うそれぞれのリージョンに一つのメタストアを作成し、当該リージョンのすべてのワークスペースにリンクさせます。このため、Databricksが複数のリージョンで稼働している場合、複数のメタストアを持つことになります。メタストア間でデータを共有するには、Delta Sharingを使用します。それぞれのメタストアには、マネージドテーブルで使用されるルートストレージロケーションが設定されます。このストレージロケーションにいかなるユーザーも直接のアクセス権を持たない様にする必要があります。ストレージロケーションへのアクセスを許可すると、ユーザーはUnity Catalogメタストアによるアクセスコントロールを迂回し、監査可能性を阻害することになります。これらの理由から、現在DBFSのルートファイルシステムに使用しているバケットや、Unity Catalogメタストアのルートストレージロケーションとして使用していたDBFSルートファイルシステムのバケットを再利用すべきではありません。 | Unity Catalogメタストアの設定のベストプラクティスは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b34b89d8e158935c3095 | 皆様の組織の情報アーキテクチャにおける区域を提供するためにカタログを使用することをお勧めします。多くの場合、これはカタログがソフトウェア開発環境のスコープ、チーム、ビジネスユニットに対応することを意味します。スキーマ(データベースよも呼ばれます)は、Unity Catalogの3レベル名前空間の2番目のレイヤーであり、テーブルやビューを整理します。テーブルはマネージドあるいは外部テーブルとなります。Unity Catalogにおいてテーブルを作成する際、マネージドテーブルがデフォルトとなります。これらのテーブルはメタストアを作成した際に指定したUnity Catalogのルートストレージロケーションに格納されます。Unity Catalogの機能サポートを確実にするために、可能な限りマネージドテーブルを使用することをお勧めします。すべてのマネージドテーブルはDelta Lakeを使用します。外部テーブルは、マネージドのストレージロケーションの外のストレージロケーションにデータが格納されるテーブルです。これらはUnity Catalogによって完全には管理されません。外部テーブルでは、Delta Lakeや、Parquet、JSON、CSVを含む数多くのデータフォーマットをサポートしています。生のデータに対する直接アクセスを提供する際、外部テーブルは好適なオプションと言えます。 | Unity Catalogでデータの整理のベストプラクティスは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b34b89d8e158935c3095 | 4つの外部ロケーションが作成され、それらすべてによって使用される1つのストレージ認証情報があります。ユーザーやグループには、Unity Catalogメタストア内の別々のストレージロケーションに対してアクセスを許可することができます。これによって、特定のグループに対してクラウドストレージバケットの別の部分へのアクセスを許可することができます。Unity Catalogメタストアのストレージロケーションを用いて外部テーブルをs買う制することができます。これらの外部テーブルは独立にセキュリティ保護することができます。1つのスキーマ内の1つのストレージロケーションから外部テーブルを作成することをお勧めします。一貫性に関する問題のリスクから、1つ以上のメタストアの外部テーブルとして共通のテーブルを登録することは強くお勧めしません。例えば、1つのメタストアにおけるスキーマへの変更は、2番目のメタストアに登録されません。メタストア間でデータを共有するには、Delta Sharingを使用してください。 | Unity Catalogで外部ロケーションと外部テーブルの管理のベストプラクティスは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b34b89d8e158935c3095 | Unity Catalogにおける個々のセキュリティ保護可能オブジェクトにはオーナーが存在します。オブジェクトを作成したプリンシパルが最初のオーナーとなります。オブジェクトのオーナーは、テーブルのSELECTやMODIFY、他のプリンシパルにセキュリティ保護可能オブジェクトの権限を付与する権利など、オブジェクトに対するすべての権限を有します。このため、オブジェクトに対する権限付与に責任を持つグループに、すべてのオブジェクトに対するオーナーシップを設定することがベストプラクティスとなります。オーナーとメタストア管理者の両方が、セキュリティ保護可能オブジェクトのオーナーをグループに移譲することができます。さらに、(テーブルやビューなど)オブジェクトがカタログに含まれている場合、カタログとスキーマのオーナーがオブジェクトのオーナーシップを変更することができます。Unity Catalogにおけるセキュリティ保護可能オブジェクトは階層的であり、権限は下方に継承されます。これは、カタログやスキーマに対して付与した権限が、カタログやスキーマに存在する、あるいは今後作成されるオブジェクトすべてに自動で権限が付与されることを意味します。詳細に関しては、Inheritance modelをご覧ください。テーブルやビューからデータを読み込むには、ユーザーは以下の権限を有している必要があります:
1. テーブルやビューに対するSELECT
2. テーブルを保持するスキーマに対するUSE SCHEMA
3. スキーマを保持するカタログに対するUSE CATALOG
4. USE CATALOGによって、許可されたユーザーが子供のオブジェクトにアクセするためにカタログを移動でき、USE SCHEMAによって、許可されたユーザーが子供のオブジェクトにアクセスするためにスキーマを移動できます。例えば、テーブルからデータを取得するには、ユーザーはテーブルに対するSELECT権限を有している必要があり、親のカタログに対するUSE CATALOG権限と、親のスキーマに対するUSE SCHEMA権限が必要となります。このため、特定のグループに対してご自身のデータ名前空間のセクションへのアクセスを制限するために、この権限を活用することができます。一般的なシナリオは、チームごとにスキーマをセットアップし、当該チームのみがそのスキーマに対するUSE SCHEMAとCREATE権限を持つというものです。これは、チームメンバーによって作成されたすべてのテーブルはチーム内でのみ共有されるということを意味します。 | Unity Catalogでアクセスコントロールの設定のベストプラクティスは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b34b89d8e158935c3095 | 一連のルールに基づいてクラスターを設定する能力を制限するために、クラスターポリシーを用いることをお勧めします。クラスターポリシーによって、Unity Catalogが有効化されたクラスターのみを作成できる様に制限をかけることができます。クラスターポリシーを用いることで選択肢を削減し、ユーザーのクラスター作成プロセスをシンプルにし、シームレスにデータにアクセスできる様になります。また、クラスターポリシーで、クラスタあたりの最大コストを制限することでコストをコントロールすることができます。アクセスコントロールの一貫性を保証し、強力なアイソレーション保証を強制するために、Unity Catalogは計算資源に対するセキュリティ要件を課します。このため、Unity Catalogではクラスターのアクセスモードというコンセプトを導入しています。Unity Catalogはデフォルトで保護されています。クラスターに適切なアクセスモードが設定されていない場合、クラスターはUnity Catalogのデータにアクセスすることができません。Unity Catalogにおけるクラスターアクセスモードをご覧ください。クラスターを共有する際にはユーザー分離アクセスモードを使用し、自動化ジョブや機械学習ワークロードにはシングルユーザーアクセスモードを使うことをお勧めします。 | Unity Catalogでクラスター設定の管理のベストプラクティスは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b34b89d8e158935c3095 | 完全なデータガバナンスソリューションには、アラート、モニタリング能力を提供するデータアクセスの監査が必要となります。Unity Catalogはメタストアに対するアクションの監査ログを取得し、Databricks監査ログの一部としてデリバリーされます。監査ログの設定を確認してください。これには、あなたが指定するS3バケットにDatabricksが監査ログをデリバリーできる様にするための適切なアクセスポリシーの設定が含まれています。通常、監査ログは15分以内に記録されます。アカウント内のすべてのワークスペースで同じ監査ログ設定を使用する様にしてください。お使いのDatabricksレイクハウスプラットフォームに関連する重要なイベントに対する完全なる可視性をどの様に得るのかに関しては、監査ログによるDatabricksレイクハウスプラットフォームのモニタリングをご覧ください。 | Unity Catalogで監査アクセスのベストプラクティスは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b34b89d8e158935c3095 | Delta Sharingは、使用している計算プラットフォームに関係なく企業内の別部門、あるいは別組織とセキュアにデータを共有するためにDatabricksによって開発されたオープンプロトコルです。メタストアでDelta Sharingが有効化されると、Unity CatalogはDelta Sharingサーバーを稼働させます。メタストア間でデータを共有するには、Databricks-to-Databricks Delta Sharingを活用することができます。これによって、別のリージョンのメタストアからテーブルを登録することができます。これらのテーブルは利用するメタストアで読み取り専用オブジェクトとして表示されます。これらのテーブルは他のUnity Catalogのオブジェクトと同じようにアクセス権を設定することができます。メタストア間でDatabricks-to-Databricks Delta Sharingを用いる際、アクセスコントロールは一つのメタストアに限定されることに注意してください。テーブルの様なセキュリティ保護可能オブジェクトにアクセス権が設定されており、そのリソースがイントラアカウントのメタストアに共有された場合、ソースからの権限が対象の共有には適用されません。対象の共有においては自身で権限を付与する必要があります。 | Unity CatalogでDelta Sharingのベストプラクティスは何? | closed_qa |
|
https://qiita.com/kohei-arai/items/e99e0e7619b46d8c2c4e | 地理空間情報分析とは「特定エリアに関する位置情報とそれに紐づく事象のデータから有益な知見や発見を得ること」を指します。代表的なデータには衛星画像や船舶・飛行機・車載機器・携帯電話などから取得できる位置情報データが存在し、それらを使ってデータを可視化・分析して地球上で何が起きているのか理解できます。また世界で大きなポテンシャルを秘めている領域と考えられており、米国の市場調査会社のひとつは、世界の高精度な地理空間情報ビジネスの市場規模は、2020 年時点で 568.8 億ドル(約 7兆 6,788 億円)、その後 2020 年から年 12.8%のペースで成長し、2028 年には 1,475.8 億ドル(約 19 兆 9,233 億円)に達すると予測しています。日本でも衛星画像分析用のプラットフォーム Tellus や位置情報を使った人口の統計情報 モバイル空間統計 をNTTドコモ社が運営されていたりと、多くの企業・団体がサービスを展開して盛り上がっている市場です。 | 地理空間情報分析とは? | closed_qa |
|
https://qiita.com/sphereSky/items/5eb35f7bb734a616edd9 | MLflow Recipesはデータサイエンティストが高品質のモデルを迅速に開発し、本番環境にデプロイするためのフレームワークです。詳細は、以下のビデオとドキュメントをご覧ください。https://mlflow.org/docs/latest/recipes.html | MLflow Recipesとは? | closed_qa |
|
https://qiita.com/sphereSky/items/5eb35f7bb734a616edd9 | 回帰問題と分類問題の二種類です。 | MLflow RecipesにサポートしているML問題の種類は? | closed_qa |
|
https://qiita.com/maroon-db/items/a9e6aabcbcb5c3a36633 | 従来はUnity CatalogのManaged Tableとして利用する場合、DeltaLakeの保存先はUnity Catalogセットアップ時に作成するメタストアのストレージのみでした。そのため複数のワークスペースでUnity Catalogを共有してもストレージは同じになってしまうため、管理や課金を分割出来ないという問題がありました。(従来は外部テーブルしか利用できなかった)今回の機能によって、カタログやスキーマ単位でストレージロケーションを分けられるため上記のような問題が解消されます。これは管理者からするとかなり嬉しい機能なのです。 | Unity Catalog のカタログIsolation機能は何か魅力的か? | closed_qa |
|
https://qiita.com/shotkotani/items/40d343f1bbccc852e110 | Feature Storeとはデータサイエンスチームが特徴量を共有するためのリポジトリです。DatabricksにおけるFeature Storeの説明はこちらをご参照ください。日次のバッチ推論のようなジョブであれば単純にDatabricksのメタストアからテーブルを呼び出せば良いのですが、REST APIによるリアルタイム推論のように高速なレスポンスが求められるケースがあります。Databricks on AWSではFeature Storeに登録したテーブルをAmazon DynamoDB、Amazon Aurora(MySQL互換), Amazon RDS(MySQL)のテーブルとして発行することができ、これををOnline Feature Storeと呼んでいます。Online Feature Storeによって、低レイテンシで推論用の特徴量を供給することが可能になります。 | Online Feature Storeとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b6adb35a48e77b4962c8 | ノートブックがクラスターに接続されると、あなたが入力しているセルに、VS Code IntelliSenseによるオートコンプリートの提案が自動で表示されます。提案を選択するために上、下のキーやマウスを使い、選択内容をセルに入力するにはTabやEnterを使います。 | ノートブックのオートコンプリート(auto-complete)機能がありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/a596d5ccca63cf3fecd9 | PySparkでサポートされているUDFには大きく2つのカテゴリーが存在します: Python UDFとPandas UDFです。Python UDFは、Pickleによってシリアライズ/デシリアライズされるPythonオブジェクトを受け取り/返却するユーザー定義スカラー関数であり、一度に一行を処理します。Pandas UDF(ベクトライズドUDF)は、Apache Arrowによってシリアライズ/デシリアライズされるシリーズ、データフレームを受け取り/返却するUDFであり、ブロックごとに処理します。Pandas UDFは用途や入出力のタイプに応じてカテゴリ分けされるバリエーションが存在します: Series to Series, Series to Scalar, Iterator to Iteratorです。Pandas UDF実装をベースとしたPandas Functions APIが存在します: Map (mapInPandasなど)、(Co)Grouped Map (applyInPandasなど)、そして、Arrow Function APIのmapInArrowもあります。関数が入出力のイテレーターを受け取らない限り、上述のすべてのUDFタイプにメモリープロファイラーは適用されます。 | PySparkでサポートされているUDFは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/a596d5ccca63cf3fecd9 | Python UDFは、Pickleによってシリアライズ/デシリアライズされるPythonオブジェクトを受け取り/返却するユーザー定義スカラー関数であり、一度に一行を処理します。Pandas UDF(ベクトライズドUDF)は、Apache Arrowによってシリアライズ/デシリアライズされるシリーズ、データフレームを受け取り/返却するUDFであり、ブロックごとに処理します。Pandas UDFは用途や入出力のタイプに応じてカテゴリ分けされるバリエーションが存在します: Series to Series, Series to Scalar, Iterator to Iteratorです。 | Python UDFとPandas UDFの違いは何か? | closed_qa |
|
https://qiita.com/taka_yayoi/items/445dac79c1270187f159 | 小売、金融、サイバーセキュリティなどいかなる業界においても、不正な挙動が発生したらすぐに検知することは間違いなく優先度が高いと言えます。この様な能力の欠如は、利益の損失、規制機関からの罰金、顧客プライバシーの侵害、サイバーセキュリティの場合にはセキュリティ侵害によって信頼が損なわれます。このため、このような比較的不自然な大量のクレジットカードのトランザクションの発見、怪しいユーザーの行動の特定、Webサービスにおける不自然なリクエストボリュームのパターンの識別によって、日々の業務を素晴らしいものにするのか、あるいはひどい災害になるのかを二分します。 | なぜ不正検知が重要なのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/445dac79c1270187f159 | 不正検知はいくつかの課題を突きつけます。1つ目は、「不正」とはどの様なものかというデータサイエンスの課題です。幸運なことに、機械学習がデータから正常なものから不正なパターンをどの様に区別するのかを学習するパワフルなツールを備えています。不正検知の場合、全ての不正がどの様なものであるのかを知ることは不可能なので、このためのリソースが利用できる場合でも機械学習モデルのトレーニングのためのデータセットをラベル付けすることは不可能です。このため、不正を検知するには、ラベル無しのデータからパターンを学習する教師無し学習が用いられてきました。完璧な教師なし不正検知機械学習モデルが分かったとしても、多くの場合、現実的な問題がスタートします。ソースシステムからデータが到着するとすぐに新たな観測事項が投入され、変換処理を経てモデルによって最終的なスコアが計算される様なプロダクション環境にモデルを投入するベストな方法とはどのようなものでしょうか?そして、5-10分のように短い周期あるいはニアリアルタイムで処理を行うにはどうしたらいいのでしょうか?これには、洗練されたETLパイプラインの構築、不正レコードを適切に識別することができる教師無し機械学習モデルのインテグレーションが含まれます。また、このエンドツーエンドのパイプラインは、プロダクションレベルである必要があり、データ取り込みからモデル推論に至るデータ品質を保証し、背後のインフラストラクチャを維持管理しなくてはなりません。 | 不正検知における課題は何か? | closed_qa |
|
https://qiita.com/taka_yayoi/items/445dac79c1270187f159 | Databricksで機械学習に関わることを行う際には、機械学習(ML)ランタイムのクラスターが必須となります。MLランタイムでは、データサイエンスや機械学習に関連するタスクで一般的に使用される数多くのオープンソースライブラリがデフォルトで利用できます。scikit-learnはこれらのライブラリの一つであり、アイソレーションフォレストアルゴリズムの素晴らしい実装を提供しています。このランタイムによって、機械学習エクスペリメントのトラッキング、モデルのステージング、デプロイメントのためのノートブック環境とMLflowの密なインテグレーションが実現されます。MLクラスターにアタッチされたノートブック環境で行われる全てのモデルトレーニンやハイパーパラメーターの最適化処理は、デフォルトで有効化されているMLflowのオートロギングによって自動で記録されます。モデルが記録されると、さまざまな方法でMLflowのモデルを登録、デプロイすることが可能になります。特に、Apache Spark™による分散ストリーム、バッチ推論におけるベクトル化ユーザー定義関数(UDF)としてこのモデルをデプロイするために、以下の画像のように、MLflowはUDFを作成、登録するためのコードをユーザーインタフェース(UI)上に生成します。 | モデルトレーニングとトラッキングにおいてDatabricksはどの様に役に立つのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/5f1db6447055a79284b8 | はい、サポートできるようになりました。MLflowでLLMを記録できるということは、MLflowのモデルサービングを使ってLLMをサービングできるのでは、そして、streamlitと組み合わせたらチャットボットを動かせるのではと思い立ちました。結論、いけました。 | DatabricksのモデルサービングでLLMをサポートしていますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/fd4d4ba4cd9b01572a38 | AI FunctionsはビルトインのDB SQLの関数であり、SQLから直接の大規模言語モデル(LLM)へのアクセスを提供します。このローンチによって、馴染みのあるSQLインタフェースから皆様の企業のデータに対するLLMの実験をクイックに行えるようになります。適切なLLMプロンプトを開発したら、Delta Live Tablesやスケジュールされたジョブのような既存のDatabricksツールを活用したプロダクションパイプラインにクイックに転用することができます。これによって、LLMの開発、本格運用のワークフローの両方をシンプルにします。AI FunctionsはLLM呼び出しにおける技術的な複雑性を抽象化し、アナリストやデータサイエンティストは、背後のインフラストラクチャを気にすることなしに、これらのモデルを使い始めることができるようになります。 | AI Functionsとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/431fa69430c5c6a5e741 | はい。大規模言語モデル(LLM)を管理、デプロイできる能力を拡張する革新的な機能が搭載された、このオープンソース機械学習プラットフォームの最新のアップデートであるMLflow 2.3が公開されました。この強化されたLLMサポートは以下を通じて提供されます:1. 3つの新たなモデルフレーバー: Hugging Face Transformers、OpenAI関数、LangChain, 2. モデルファイルのマルチパートのダウンロード、アップロードを通じたクラウドサービスとのモデルのダウンロード、アップロード速度の劇的な改善 | MLflowではHugging Faceトランスフォーマーをサポートしていますか? | closed_qa |
|
はい、MLflow2.3で関数ベースのフレーバーによるOpenAI APIがサポートされるようになりました。OpenAI Pythonライブラリによって、Pythong言語で記述されたアプリケーションからOpenAI APIに簡単にアクセスできるようになります。これには、OpenAI APIリソースへのマッピングを行う一連の事前定義積みクラスが含まれています。これら提供されるクラスを用いることで、さまざまなバージョンのモデルやOpenAI APIエンドポイントに対して、動的に接続を初期化し、データを引き渡し、レスポンスを取得します。MLflow OpenAIフレーバーは以下をサポートしています: 1. 自動シグネチャスキーマ検知 2. 推論を加速するための並列APIリクエスト 3. レートリミットエラーのような一時的なエラーにおける自動APIリクエストリトライ | MLflowでOpenAI APIをサポートしていますか? | closed_qa |
||
https://qiita.com/taka_yayoi/items/431fa69430c5c6a5e741 | はい、MLflow2.3でサポートしています。MLflowのLangChainフレーバーは、質問応答システムやチャットボットのようなLLMベースのアプリケーションの構築やデプロイのプロセスをシンプルにします。LangChainの高度な機能と、MLflowの効率化された開発、デプロイサポートを活用することができます。 | MLflowでLangChainをサポートしていますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/cb565343708842092942 | はい、Apache Spark 3.4では、SparkクラスターでのPyTorchの分散トレーニングを行えるように、TorchDistributorモジュールが追加されます。内部では、環境とワーカー間のコミュニケーションチャネルを初期化し、ワーカーノード横断で分散トレーニングを実行するために、CLIコマンドtorch.distributed.runを活用します。このモジュールは、シングルノードマルチGPUとマルチノードGPUクラスターの両方における分散トレーニングジョブをサポートしています。 | PyTorch MLモデルの分散トレーニングはサポートしていますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e68cc343afb27f01589f | databricks-dolly-15kは、ChatGPTの魔法のようなインタラクティブ性を大規模言語モデルが示せるようにするために、数千人のDatabricks従業員によって生成された15,000以上のレコードを含むコーパスです。Databricks従業員は、InstructGPTの論文で説明されている7つのカテゴリー、オープンエンドの自由記述カテゴリーを含む、8つの異なる指示カテゴリーのそれぞれでプロンプト/レスポンスを作成する取り組みに招待されました。コントリビューターは、Wikipedia以外のウェブのソースからの情報を使わないように指示され、指示やレスポンスを構成する際に生成型AIを使わないように明示的に指示されました。それぞれのカテゴリーに適切な質問と指示のタイプの動機づけを行うために、それぞれの挙動のサンプルが提供されました。データ生成プロセスの過程で、コントリビューターは他のコントリビューターによる質問に回答するオプションが提供されました。オリジナルの質問を言い換え、適切に回答できるだろうと予測できる質問のみを選択することが求められました。特定のカテゴリーでは、コントリビューターはWikipediaからコピーされた参照テキストを提供することが求められました。参照テキスト(実際のデータセットではcontextフィールドに示されています)には、括弧付きのWikipediaの引用番号(例 [42])が含まれることがあり、後段のアプリケーションではユーザーが削除することが推奨されます。 | databricks-dolly-15kとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e68cc343afb27f01589f | 人間生成データ: Databricks従業員は8つの異なる指示カテゴリーのそれぞれでプロンプト/レスポンスのペアを作成する取り組みに容態されました。Wikipedia: アノテーターが参照テキストを必要とする指示カテゴリー(情報抽出、クローズドのQA、要約)においては、コントリビューターは特定の指示カテゴリーのサブセットにおいて、Wikipediaの文を選択しました。どのようにターゲットの文を選択するのかに関するガイドはアノテーターには与えられませんでした。 | databricks-dolly-15kの指示カテゴリーの種類は? | closed_qa |
|
https://qiita.com/taka_yayoi/items/59f0ba1a07c620a70a75 | Dolly 2.0はEleutherAIのpythiaモデルファミリーをベースとした12Bのパラメーターを持つ言語モデルであり、Databricks従業員によってクラウドソースされた人間の手で生成された新たな高品質な指示追従データセットのみを用いてファインチューニングされています。我々は、すべて商用利用できるトレーニングコード、データセット、モデルの重みを含むDolly 2.0のすべてをオープンソース化します。これは、すべての組織がサードパーティにデータを共有したり、APIアクセスに支払いをすることなしに、人々と会話できるLLMを作成、所有、カスタマイズできることを意味します。 | Dolly 2.0とは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/59f0ba1a07c620a70a75 | Dolly 1.0をリリースするやいなや、試したい方々からのリクエストが殺到しました。ナンバーワンの質問は「これを商用利用できますか?」でした。Dolly 1.0やその他の指示追従LLMを作成する重要なステップは、指示とレスポンスのペアを用いてモデルをトレーニングすることです。Dolly 1.0はスタンフォードのAlpacaチームがOpenAI APIを用いて作成したデータセットを用いて$30でトレーニングされました。このデータセットにはChatGPTのアウトプットが含まれており、スタンフォードチームが指摘しているように、利用条項はOpenAIと競合するモデルの作成を許可していません。このため、残念ですが、共通した質問に対する回答は「おそらくダメです!」でした。我々の知る限り、既存のよく知られた指示追従モデル(Alpaca、Koala、GPT4All、Vicuna)は、商用利用を禁ずるこの制限に苦しんでいます。この難問に対処するために、我々は商用利用できるような、まだ「トレーニング」されていない新たなデータセットを作成する方法を模索し始めました。 | Dollyになぜ新たなデータセットを作成したのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/59f0ba1a07c620a70a75 | 我々は、OpenAIの研究論文から、InstructGPTモデルは13,000個の指示追従の挙動を示す内容から構成されるデータセットでトレーニングされたことを理解しています。これからインスピレーションを得て、Databricks従業員が先頭に立つことで同様の成果を達成できないかを検討することにしました。結果として、13kの質問と回答を生成することは見かけよりも困難であることがわかりました。すべての回答はオリジナルではなくてはなりません。ChatGPTやウェブのどこかからコピーしてはならず、そうでないと我々のデータセットが汚染されることになります。うんざりするような話でしたが、DatabricksにはLLMに非常に興味を持っている5,000人以上の従業員がいます。そして、OpenAIの40人のラベル付け担当者よりも、さらに高品質なデータセットを作成するために、彼らの間でクラウドソースすることを検討しました。しかし、彼らはすべて多忙であり、山盛りの仕事を抱えていることを知っていましたので、これを行うためのインセンティブの方法が必要でした。我々は、トップ20のラベラーがすごい賞を受け取れるコンテストをセットアップしました。また、7つの固有のタスクを説明したました: 1. オープンなQ&A: 例えば、「なぜ人々はコメディ映画を好むのか?」や「フランスの首都は?」あるケースにおいては、これには明確な回答はなく、他のケースにおいては、図示や広範な世界に対する知識を必要とします。2. クローズドなQ&A: これは参照テキストの文に含まれる情報のみを用いて回答できる質問です。例えば、原子に関するWikipediaの段落に関して、「原子核における陽子と中性子の比率は?」と尋ねるというものです。3. Wikipediaからの情報抽出: ここでは、アノテーターはWikipediaから段落をコピーし、文からエンティティやその他の重みや測定結果のような事実情報を抽出します。4. Wikipediaからの情報の要約: ここでは、アノテーターにWikipediaの文が渡され、短い要約にまとめることが求められます。5. ブレーンストーミング: このタスクでは、終わりのないアイディエーションと可能性のあるオプションとの関連付けが求められます。例えば、「今週末に友達とできる面白いアクティビティは?」と言ったものです。6. 分類: このタスクでは、アノテーターはクラスのメンバーシップ(例: このアイテムは動物リスト、鉱物リスト、野菜リストに含まれますか)や、感情や映画レビューのような短い文のプロパティに対する判断を求められます。7. クリエイティブな記述: このタスクには、詩やラブレターの記述のようなものが含まれます。 | どのように作成したのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/59f0ba1a07c620a70a75 | Dolly 2.0の重みをダウンロードするには、シンプルにDatabricks Hugging Faceのページを訪れ、databricks-dolly-15k datasetをダウンロードするにはDolly repo on databricks-labsにアクセスしてください。そして、ご自身の組織でLLMを活用する方法を知るには、我々のウェビナーにご参加ください。 | Dolly 2.0をどうすれば使い始められますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/a1af9fcd4c673fc8869a | Databricksクラスターポリシーを用いることで、管理者は: 1. エンドユーザーのクラスター設定を制御することでコストを抑えることができます。2. エンドユーザーがクラスターを作成しやすくなります。3. コスト管理のためにワークスペース横断でタグを強制できます。また、3つの主要なユースケース向けに事前定義されたクラスターポリシーを提供します: パーソナルユース、共有利用、ジョブです。また、管理者は自分のポリシーをカスタマイズしたり、事前定義済みのポリシーを編集することができます。 | どうしてDatabricksクラスターポリシー? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d46cf7e17135d4a4ac7e | 一般的に、リアルタイムのストリーミングデータを取り扱う際、データの取り込み方法やアプリケーション全体がダウンタイムのような問題を体験するかどうかによって、イベント時間と処理時間の間には遅れが生じます。これらの潜在的に変動する遅延によって、このデータの処理に使用するエンジンには、いつ集計ウィンドウをクローズし、集計結果を生成するのかを決定するメカニズムが必要となります。生成したい集計結果を適切なものにするために、Sparkが集計ウィンドウをいつクローズし、適切な集計結果を生成するのかを理解できるようにウォーターマークを定義する必要があります。構造化ストリーミングアプリケーションにおいては、ウォーターマーキングと呼ばれる機能を用いることで、計算したい集計結果に適したすべてのデータが収集されるようにすることができます。基本的には、ウォーターマークを定義することで、Spark構造化ストリーミングは(一連の予想遅延期間に基づく)ある時点Tまでのすべてデータがいつ取り込まれたのかを認識することができるので、タイムスタンプTまでのウィンドウ集計をクローズし、結果を生成することができます。 | Apache Spark構造化ストリーミングにおけるウォーターマーキングとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | Databricksが提供するプラットフォームの名称です。Databricksが作った造語であり、由来は従来型データプラットフォームであるデータウェアハウスとデータレイクであり、両者の長所を兼ね備えたプラットフォームであるという意味を込めてレイクハウスとしています。 | レイクハウスとは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | データエンジニア、データサイエンティスト、SQLアナリスト、MLエンジニアなど機械学習/AIプロジェクトに関わる方すべてです。なお、SQL/Python/Rの知識を有している方を主たるユーザーとしていますが、最近ではシチズンデータサイエンティストの方向けの機能を提供するように機能を拡張しています。 | Databricksの想定されるエンドユーザーは誰ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | 鋭意準備中です。以下のドキュメントもご活用ください。https://qiita.com/taka_yayoi/items/125231c126a602693610、https://learn.microsoft.com/ja-jp/azure/databricks/ | 日本語のドキュメントはありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | Databricksはコントロールプレーンとデータプレーンから構成されています。コントロールプレーンには、DatabricksのAWSアカウント上でDatabricksが管理するバックエンドサービスが含まれます。あなたが実行する全てのコマンド(ノートブックのセル)は、完全に暗号化された状態でコントロールプレーンに存在することになります。保存されたコマンドはデータプレーンに格納されます。
データプレーンはあなたのAWSアカウントで管理され、あなたのデータが格納される場所になります。また、ここでデータが処理されます。この図では、既にデータがDatabricksに登録されていることを仮定していますが、イベントデータ、ストリーミングデータ、IoTデータなど外部のデータソースからデータを取り込むことが可能です。Databricksコネクターを用いることで、あなたのAWSアカウント外の外部データソースにも接続することができます。
あなたのデータは常に、データプレーンのあなたのAWSアカウントに存在します。このため、あなたのデータがロックインされることなく、常にフルコントロール、オーナーシップを維持することができます。 | Databricksプラットフォームはどのようなアーキテクチャですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | レイクハウスの根幹とも呼べるコンポーネントがDelta Lakeです。Delta Lakeはデータレイクの抱える課題を解決するために、データウェアハウスで培われた技術をデータレイクに提供します。
データウェアハウスでは当たり前のACIDトランザクションをデータレイクで実現することで、データが不完全な状態になることを回避します。
データベースで当たり前のスキーマ適用を行うことで、スキーマに合致しないデータの流入を防ぎます。
データベースで培われたインデックス、パーティショニングをデータレイク上で実現することで、大規模データに対する高速な処理を実現します。 | Delta Lakeとは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | Databricksの創業者が開発した分散処理フレームワークです。Databricksにおける処理エンジンとなっています。Sparkを活用することで、大量データに対するETL処理、機械学習、BIを高速に実施することが可能となります。 | Sparkとは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | エンドツーエンドの機械学習モデル管理をサポートするソフトウェアです。トレーニングされたモデルを自動でトラッキングし、本格運用としてモデルを簡単にデプロイすることが可能となります。 | MLflowとは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | Databricksで取り扱うファイルは、Databricksのワークスペースを構築する際に指定した(1)S3バケット(DBFSルートバケットと呼ばれます)に格納されます。加えて、稼働しているクラスターの(2)ローカルストレージにファイルを保存することができますが、こちらはクラスターが停止すると全て失われます。 | Databricksでファイルはどの様に管理されますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | できます。Hiveメタストアにデータを登録することでSQLベースでのデータ操作が可能となります。 | データベースの様な使い方はできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | できます。さらにはビルトインの可視化機能を用いてお手軽にグラフを作成することができます。 | matplotlib/seabornなどを用いて可視化を行うことができますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | できます。専用のデータソースを活用することで、画像サムネイルを簡単に参照することもできます。 | 画像データを取り扱うことはできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | できます。Sparkを活用することで、大量テキストデータを高速に処理することも可能です。 | テキストデータを取り扱うことはできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | できます。Reposをご活用ください。 | Githubと連携できますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | VScodeをサポートしています。Databricks Connectを使うことで他のIDEからDatabricksクラスターを利用いただけます。 | VSCodeなどのIDEをローカルで使いたいのですが | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | 以下の手順に従って環境を導入ください。複雑な構成が必要な場合にはDatabricksまでご連絡ください。導入をサポートします。https://qiita.com/taka_yayoi/items/fb4f57c069e1f272e88a | AWSでDatabricksを導入したいのですがどうしたら良いですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | マーケットプレースから導入してください。https://learn.microsoft.com/ja-jp/azure/databricks/getting-started/?tabs=azure-portal | AzureでDatabricksを導入したいのですがどうしたら良いですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | マーケットプレースから導入してください。https://qiita.com/taka_yayoi/items/cff8460e3864121a0e4a | GCPででDatabricksを導入したいのですがどうしたら良いですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | Databricksがお客様との共創を通じて生み出したソリューションを他の会社の方でも利用できる様にインターネットに公開しているサンプルノートブックと説明資料(ブログ記事)です。 | ソリューションアクセラレータとは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | いいえ、すべて無料です。 | ソリューションアクセラレータは有償ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | ユーザー、グループ単位で管理されます。アイデンティティプロバイダーと連携したシングルサインオンもサポートしています。 | Databricksでユーザーはどの様に管理されますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | ロールベースのアクセス権管理が可能です。 | Databricks上のオブジェクト(ノートブック、フォルダなど)のセキュリティはどうなっていますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | AWSであればPrivateLinkを活用して閉域網で環境を構築することができます。 | 閉域網で環境を構築したいのですがどうしたら良いですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | できます。テーブルアクセスコントロールを有効化したクラスターを使用してください。 | データベースのテーブルの行列レベルでアクセス制御を行うことはできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | できます。インスタンスプロファイル、あるいはIAMクレディンシャルパススルーをクラスターに設定してください。 | クラウドストレージ上のファイルに対するアクセス制御を行うことはできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | はい、監査ログの設定をしていただくことでDatabricks上のユーザーの操作を記録することができます。 | ユーザーの操作履歴など監査ログを記録することはできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | シークレットに格納してください。 | アクセストークン、パスワードなど機密性の高い情報をノートブックに記載したくないのですがどうしたら良いですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | 従量課金と年額事前契約があります。前者はクレジットカードの登録が必要となります。後者はプロフェッショナルサービスによるサポート、ディスカウントのメリットがあります。 | 価格体系はどうなっていますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | クラスターが起動している期間のみDBU(Databricks Unit)に基づく課金が発生します。クラスターを起動しなければ、Databricksからの課金は発生しません。なお、インスタンス、ネットワーク、ストレージなどクラウドプロバイダーの課金が別途発生します。 | どの様なケースでDatabricksの課金が発生しますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | できます。機能制限のあるDatabricks Community Editionあるいは、2週間のフリートライアル期間でフル機能を試していただくことが可能です。 | 無償で機能を試すことはできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | いいえ、自動停止(Auto Termination)の設定をしていただければ、クラスターが利用されていない状態が一定期間継続した場合に自動で停止されます。 | 毎回クラスターを停止する必要がありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | ベストプラクティスを参照してください。https://qiita.com/taka_yayoi/items/ef3dc37143e7b77b50ad | どのようにクラスターを設定したら良いのでしょうか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | ジョブを活用ください。 | 定期的に処理を実行したいのですが。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | 使えます。むしろ、各種コラボレーション機能はリモートワークのシーンにおいて威力を発揮します。 | リモートワーク主体になっているのですがDatabricksは使えますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | SaaSで提供されるDatabricksでは、インフラ管理の工数を劇的に引き下げることができます。1名の管理者で複数部門にサービスを提供した事例もあります。また、分析者はコラボレーション機能、プロジェクト管理機能を活用することで、少ない分析者リソースであっても複数のAIプロジェクトを回すことができます。 | 人的リソースが少ないのですがDatabricksは使えますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | Jupyter notebookと比較したデータブリックスのメリットをご説明します。
1. Jupyter notebookは主にEDAと機械学習モデル構築に焦点を置いていますが、データブリックスでは分析の前段のデータ加工からデータパイプラインの構築、モデルの構築からデプロイ、ひいては経営層向けに提示するBIレポート作成までもカバーしています。
2. クリックだけの操作でSparkクラスターを起動することができます。フルバージョンのデータブリックスでは、任意のスペックのクラスターを構成でき、オートスケーリングを活用することができます。
3. データベースのインストールが不要です。データブリックスでは最初からデータベースとしてHiveメタストアを利用できます。以下ではSQLを用いてデータベースを操作してみます。%sqlに関しては後ほどご説明します。
4. リモートワークでのコラボレーションが簡単です。遠隔地であってもリアルタイム、時間差でのコミュニケーションを容易に行うことができます。
5. データブリックスはノートブックに対する基本的なバージョン管理機能を提供します。画面右上のRevision historyから過去のノートブックを参照できます。それぞれのバージョンに対して、コメントの追加、復旧、バージョンの削除、バージョン履歴の削除を行うことができます。Githubのリポジトリと連携することもできます。
6. プログラミング言語を柔軟に切り替えることができます。
7. データを簡単に可視化できます。
7. 大量データを高速に処理できます。 | Jupyter Notebookを使っているのにDatabricksを利用するメリットはありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/24f23ba228a4656c0b80 | フルバージョンのデータブリックスと比較してコミュニティエディションには以下の制限があります。1. 作成できるクラスターは15GB RAM、2 Core CPUのシングルノードのみ, 2. ワークスペースに追加できるユーザー数は最大3名まで, 3. クラスターのリージョンはus-westのみ, 4. 使用できない機能, 5. ジョブのスケジュール機能, 6. クラスターのオートスケーリング機能, 7. Git連携, 8. MLflowの一部モデル管理機能(レジストリ、RESTサービング), 9. REST APIによるワークスペースの制御, 10. セキュリティ、ロールベースのアクセス制御、監査、シングルサインオン, 11. BIツール連携のサポート | コミュニティエディションの制限は何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | Delta Lakeの他のトランザクションストレージレイヤーソフトウェアも類似の課題を解決するためのものですが、Delta Lakeはデータエコシステムにおけるより広いユースケースをカバーしています。データレイクに、信頼性だけでなく、高性能、セキュリティを追加し、バッチ処理、ストリーミング処理を統合するフレームワークを提供します。また、データ変換パイプラインの効率を改善するだけではなく、BI、データサイエンス、機械学習と言った下流のアクティビティの効率も改善できます。DatabricksのDelta Lakeを活用することで、Deltaエンジンによるよる良いパフォーマンス、きめ細かいアクセスコントロールによる高セキュリティ・ガバナンス、多くのBIツールに対する高性能ネイティブコネクターによるエコシステムの拡大と言った様々な恩恵を享受することができます。最後に、Delta Lakeは世界中の数千のお客様によって、3年以上の実運用に耐え続けている実績を持っています。毎日、少なくとも3ペタバイトのデータがDelta Lakeに投入されています。 | Delta Lakeは他のトランザクションストレージレイヤーと何が違うのですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | Delta Lakeへのデータ追加は非常に簡単です。DatabricksオートローダーあるいはSQLのCOPY INTOコマンドを使って、既存のデータレイク(S3やADLS)にデータを追加するたびに自動でDelta Lakeにデータが追加されます。また、Apache Spark™を用いて、バッチでデータを読み取り、変換処理を行い、結果をDeltaフォーマットで書き込むということも可能です。 | どのようにDelta Lakeにデータを追加するのですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | はい、Delta LakeはBIやレポート作成にも活用できます。特にこのデータ分析ユースケースに対応するために、我々は最近SQL Analytics(現在パブリックプレビュー)のリリースを発表しました。SQL Analyticsはデータレイクに直接アクセスして分析を行うBIユースケースに特化して設計されています。もし、データレイクに対してクエリを実行する多くのユーザーをお持ちなのであれば、SQL Analyticsに目を通して見ることをお勧めします。ビルトインされているクエリ、ダッシュボード機能を利用することもできますし、最適化されたネイティブコネクターを介して、既にお使いのBIツールを利用することも可能です。 | DatabricksのDelta LakeはBIやレポート作成のユースケースに適していますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | はい、Delta Lakeは、あなたがお使いのデータセットに対するバージョン管理機能を提供します。これは、再現性の観点から非常に重要な機能です。あなたのモデルを特定のバージョンのデータセットに紐付けできることは非常に重要です。これによって、他のメンバーが検証目的でトレーニングを再現し、同じ結果が得られることを確認できます。つまり、全く同一のデータ、あなたがトレーニングに使用したのと全く同じバージョンのデータでトレーニングを再現できるようになります。Databricksにおけるデータサイエンス、機械学習に関してはこちらを参照ください。 | Delta Lakeはデータエンジニアリング以外に、機械学習の作業を支援しますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | Delta Lakeはデータレイクにあるファイルにおける特定のレコードを削除する機能を持っており、これはCCPAやGDPRのような規制に対して大きな意味を持ちます。対象を削除する際、ビジネスサイドは多くのケースでクラウドのオブジェクトストレージ上のデータまでも削除することを要求します。Databricksによってデータが管理されるDelta Lake管理テーブルを活用することで、削除処理はあなたのクラウドオブジェクトストレージまで伝播します。 | コンプライアンスの文脈でDelta Lakeを活用できますか?Delta Lakeでは、GDPRやCCPAに準拠するために、どのように以前のバージョンのデータを削除できますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | はい、DatabricksのDelta Lakeに加えて、ワークスペースオブジェクト(フォルダー、ノートブック、エクスペリメント、モデル)、クラスター、プール、ジョブ、データスキーマ、テーブル、ビューなどに対して、アクセス権限を管理するアクセスコントロールリスト(ACL)を活用できます。管理者、あるいは権限が移譲されたユーザーがアクセスコントロールを制御できます。Databricksにおけるデータガバナンスのベストプラクティスに関しては、こちらを参照ください。https://docs.databricks.com/data-governance/best-practices.html | セキュリティ、ガバナンスの目的でアクセスコントロールを課することはできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | Delta Lakeにおいては、バッチ、ストリーミング処理の両方を実行することができ、複雑性、冗長性、運用の課題を回避してアーキテクチャをシンプルにできます。Delta Lakeのテーブルはバッチ処理におけるテーブル、ストリーミング処理のソースとシンクになることができます。ストリーミングによるデータの投入、バッチによる履歴データの補完、インタラクティブなクエリ全てがDeltaテーブルで動作し、直接Sparkの構造化ストリーミングと統合できます。
以上がイベントにおいてお客様からいただいた質問のほんの一部です。ライブイベントに参加された方には、スケーラブルかつコスト効率の高いレイクハウスの基盤であるDelta Lakeを学ぶ時間を割いていただいたことを感謝します。参加されなかった皆様においては、レコーディングを参照いただければと思います。 | どのようにストリーミング、バッチ処理に対応できますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | Delta Lakeは、お使いのデータレイクに信頼性、セキュリティ、パフォーマンスをもたらすオープンフォーマットのストレージレイヤーであり、ストリーミング処理、バッチ処理の両方に対応しています。Delta Lakeは、分析をシンプルにし、企業全体でデータにアクセスできるようにするために、構造化、準構造化、非構造化データに対する単一の場所を提供することでデータのサイロ化を排除します。最終的には、Delta Lakeはコスト効率の良い、高度にスケーラブルなレイクハウスアーキテクチャの基盤かつイネーブラとなります。 | Delta Lakeとは何で、レイクハウスにおいてどのような役割ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | Delta Lakeと名付けた理由は二つあります。最初の理由は、Delta Lakeはデータに対する、変更あるいはdelta(差分)を追跡し続けます。第二の理由は、Delta Lakeはお使いのデータレイクに流れ込むデータをフィルタリングする「デルタ(三角州)」として動作するからです。 | なぜDelta Lakeと呼ばれるのですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | はい、それを行うためには、オープンソースのSparkとDelta Lakeをインストールします。DatabricksのDelta Lakeは、Databricksでのみ利用できるDeltaエンジンによって、オープンソースのDelta Lakeより高速なものとなっています。詳細はこちらの記事を参照ください。 | DatabricksでDelta Lakeテーブルを作成して、オープンソースのSparkでアクセスできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | Delta Lakeで使用されるファイルフォーマットは、parquetとJSONの組み合わせであるdeltaと呼ばれるものです。Delta Lakeのテーブルは、テーブルのコンテンツとトランザクションログ(およびチェックポイント)のデータオブジェクトを保持するクラウドオブジェクトストア、あるいはファイルシステム上のディレクトリです。 | Delta Lakeのファイルフォーマットは何ですか? | closed_qa |