Menggunakan pembelajaran mesin Amazon Aurora dengan Aurora My SQL - Amazon Aurora

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Menggunakan pembelajaran mesin Amazon Aurora dengan Aurora My SQL

Dengan menggunakan pembelajaran mesin Amazon Aurora dengan cluster Aurora My SQL DB Anda, Anda dapat menggunakan Amazon Bedrock, Amazon Comprehend, atau Amazon AI, tergantung pada kebutuhan Anda. SageMaker Mereka masing-masing mendukung kasus penggunaan pembelajaran mesin yang berbeda.

Persyaratan untuk menggunakan pembelajaran mesin Aurora dengan Aurora My SQL

AWS Layanan pembelajaran mesin adalah layanan terkelola yang diatur dan dijalankan di lingkungan produksi mereka sendiri. Pembelajaran mesin Aurora mendukung integrasi dengan Amazon Bedrock, Amazon Comprehend, dan AI. SageMaker Sebelum mencoba mengatur cluster Aurora My SQL DB Anda untuk menggunakan pembelajaran mesin Aurora, pastikan Anda memahami persyaratan dan prasyarat berikut.

  • Layanan pembelajaran mesin harus berjalan Wilayah AWS sama dengan cluster Aurora My SQL DB Anda. Anda tidak dapat menggunakan layanan pembelajaran mesin dari cluster Aurora My SQL DB di Wilayah yang berbeda.

  • Jika klaster Aurora My SQL DB Anda berada di cloud publik virtual (VPC) yang berbeda dari Amazon Bedrock, Amazon Comprehend, atau layanan SageMaker AI Anda, grup Keamanan perlu mengizinkan koneksi keluar ke layanan pembelajaran mesin VPC Aurora target. Untuk informasi selengkapnya, lihat Mengontrol lalu lintas ke AWS sumber daya Anda menggunakan grup keamanan di Panduan VPC Pengguna Amazon.

  • Anda dapat memutakhirkan cluster Aurora yang menjalankan versi Aurora My yang lebih rendah SQL ke versi yang lebih tinggi yang didukung jika Anda ingin menggunakan pembelajaran mesin Aurora dengan cluster itu. Untuk informasi selengkapnya, lihat Pembaruan mesin database untuk Amazon Aurora My SQL.

  • Cluster Aurora My SQL DB Anda harus menggunakan grup parameter cluster DB kustom. Di akhir proses penyiapan untuk setiap layanan machine learning Aurora yang ingin Anda gunakan, Anda menambahkan Amazon Resource Name (ARN) dari IAM peran terkait yang dibuat untuk layanan tersebut. Kami menyarankan Anda membuat grup parameter cluster DB khusus untuk Aurora My Anda SQL terlebih dahulu dan mengkonfigurasi cluster Aurora My SQL DB Anda untuk menggunakannya sehingga siap untuk Anda modifikasi di akhir proses penyiapan.

  • Untuk SageMaker AI:

    • Komponen pembelajaran mesin yang ingin Anda gunakan untuk kesimpulan harus diatur dan siap digunakan. Selama proses konfigurasi untuk cluster Aurora My SQL DB Anda, pastikan untuk memiliki titik ARN akhir SageMaker AI yang tersedia. Ilmuwan data di tim Anda kemungkinan besar paling mampu menangani bekerja dengan SageMaker AI untuk mempersiapkan model dan menangani tugas-tugas semacam itu lainnya. Untuk memulai dengan Amazon SageMaker AI, lihat Memulai dengan Amazon SageMaker AI. Untuk informasi selengkapnya tentang inferensi dan titik akhir, lihat Inferensi real-time.

    • Untuk menggunakan SageMaker AI dengan data pelatihan Anda sendiri, Anda harus menyiapkan bucket Amazon S3 sebagai bagian dari konfigurasi Aurora My SQL untuk pembelajaran mesin Aurora. Untuk melakukannya, Anda mengikuti proses umum yang sama seperti untuk menyiapkan integrasi SageMaker AI. Untuk ringkasan proses penyiapan opsional ini, lihat Menyiapkan cluster Aurora My SQL DB Anda untuk menggunakan Amazon S3 SageMaker untuk AI (Opsional).

  • Untuk database global Aurora, Anda menyiapkan layanan pembelajaran mesin Aurora yang ingin Anda gunakan dalam semua yang Wilayah AWS membentuk basis data global Aurora Anda. Misalnya, jika Anda ingin menggunakan pembelajaran mesin Aurora dengan SageMaker AI untuk database global Aurora Anda, Anda melakukan hal berikut untuk setiap cluster Aurora My DB di setiap: SQL Wilayah AWS

    Tugas-tugas ini mengharuskan pembelajaran mesin Aurora tersedia untuk versi Aurora My Anda SQL dalam semua Wilayah AWS yang membentuk basis data global Aurora Anda.

Wilayah dan ketersediaan versi

Ketersediaan fitur dan dukungan bervariasi di seluruh versi khusus dari setiap mesin basis data Aurora, dan di seluruh Wilayah AWS.

  • Untuk informasi tentang versi dan ketersediaan Wilayah untuk Amazon Comprehend dan SageMaker Amazon AI dengan SQL Aurora My, lihat. Pembelajaran mesin Aurora dengan Aurora My SQL

  • Amazon Bedrock hanya didukung di Aurora SQL My versi 3.06 dan lebih tinggi.

    Untuk informasi tentang ketersediaan Wilayah untuk Amazon Bedrock, lihat Dukungan model oleh Wilayah AWS di Panduan Pengguna Amazon Bedrock.

Fitur dan keterbatasan pembelajaran mesin Aurora yang didukung dengan Aurora My SQL

Saat menggunakan SQL Aurora My dengan pembelajaran mesin Aurora, batasan berikut berlaku:

  • Ekstensi pembelajaran mesin Aurora tidak mendukung antarmuka vektor.

  • Integrasi pembelajaran mesin Aurora tidak didukung saat digunakan dalam pemicu.

  • Fungsi pembelajaran mesin Aurora tidak kompatibel dengan replikasi biner logging (binlog).

    • Pengaturan --binlog-format=STATEMENT memunculkan pengecualian untuk panggilan ke fungsi machine learning Aurora.

    • Fungsi machine learning Aurora Function bersifat nondeterministik, dan fungsi tersimpan nondeterministik tidak kompatibel dengan format binlog.

    Untuk informasi selengkapnya, lihat Format Pencatatan Biner di SQL dokumentasi Saya.

  • Fungsi tersimpan yang memanggil tabel dengan kolom generated-always tidak didukung. Ini berlaku untuk semua fungsi Aurora My storageSQL. Untuk mempelajari lebih lanjut tentang jenis kolom ini, lihat CREATETABLEdan Kolom yang Dihasilkan dalam SQL dokumentasi Saya.

  • Fungsi Amazon Bedrock tidak mendukungRETURNS JSON. Anda dapat menggunakan CONVERT atau CAST mengonversi dari TEXT ke JSON jika diperlukan.

  • Amazon Bedrock tidak mendukung permintaan batch.

  • Aurora My SQL mendukung titik akhir SageMaker AI apa pun yang membaca dan menulis format value (CSV) yang dipisahkan koma, melalui file. ContentType text/csv Format ini diterima oleh algoritme SageMaker AI bawaan berikut:

    • Linear Learner

    • Random Cut Forest

    • XGBoost

    Untuk mempelajari lebih lanjut tentang algoritme ini, lihat Memilih Algoritma di Panduan Pengembang Amazon SageMaker AI.

Menyiapkan cluster Aurora My SQL DB Anda untuk menggunakan pembelajaran mesin Aurora

Dalam topik berikut, Anda dapat menemukan prosedur pengaturan terpisah untuk masing-masing layanan machine learning Aurora ini.

Menyiapkan cluster Aurora My SQL DB Anda untuk menggunakan Amazon Bedrock

Pembelajaran mesin Aurora bergantung pada AWS Identity and Access Management (IAM) peran dan kebijakan untuk memungkinkan klaster Aurora My SQL DB Anda mengakses dan menggunakan layanan Amazon Bedrock. Prosedur berikut membuat kebijakan dan peran IAM izin sehingga klaster DB Anda dapat berintegrasi dengan Amazon Bedrock.

Untuk membuat IAM kebijakan
  1. Masuk ke AWS Management Console dan buka IAM konsol di https://console.aws.amazon.com/iam/.

  2. Pilih Kebijakan di panel navigasi.

  3. Pilih Buat kebijakan.

  4. Pada halaman Tentukan izin, untuk Pilih layanan, pilih Batuan Dasar.

    Tampilan izin Amazon Bedrock.

  5. Perluas Baca, lalu pilih InvokeModel.

  6. Untuk Sumber Daya, pilih Semua.

    Halaman Tentukan izin harus menyerupai gambar berikut.

    Kebijakan IAM izin Amazon Bedrock untuk InvokeModel operasi.
  7. Pilih Berikutnya.

  8. Pada halaman Tinjau dan buat, masukkan nama untuk kebijakan Anda, misalnyaBedrockInvokeModel.

  9. Tinjau kebijakan Anda, lalu pilih Buat kebijakan.

Selanjutnya Anda membuat IAM peran yang menggunakan kebijakan izin Amazon Bedrock.

Untuk membuat IAM peran
  1. Masuk ke AWS Management Console dan buka IAM konsol di https://console.aws.amazon.com/iam/.

  2. Pilih Peran di panel navigasi.

  3. Pilih Buat peran.

  4. Pada halaman Pilih entitas tepercaya, untuk kasus penggunaan, pilih RDS.

  5. Pilih RDS- Tambahkan Peran ke Database, lalu pilih Berikutnya.

  6. Pada halaman Tambahkan izin, untuk kebijakan Izin, pilih IAM kebijakan yang Anda buat, lalu pilih Berikutnya.

  7. Pada halaman Nama, tinjau, dan buat, masukkan nama untuk peran Anda, misalnyaams-bedrock-invoke-model-role.

    Peran harus menyerupai gambar berikut.

    IAMPeran Amazon Bedrock untuk InvokeModel operasi.
  8. Tinjau peran Anda, lalu pilih Buat peran.

Selanjutnya Anda mengaitkan IAM peran Amazon Bedrock dengan cluster DB Anda.

Untuk mengaitkan IAM peran dengan cluster DB Anda
  1. Masuk ke AWS Management Console dan buka RDS konsol Amazon di https://console.aws.amazon.com/rds/.

  2. Pilih Basis data dari panel navigasi.

  3. Pilih klaster Aurora My SQL DB yang ingin Anda sambungkan ke layanan Amazon Bedrock.

  4. Pilih tab Konektivitas & keamanan.

  5. Untuk bagian Kelola IAM peran, pilih Pilih IAM untuk ditambahkan ke klaster ini.

  6. Pilih IAM yang Anda buat, lalu pilih Tambah peran.

    IAMPeran dikaitkan dengan cluster DB Anda, pertama dengan status Tertunda, lalu Aktif. Saat proses selesai, Anda dapat menemukan peran dalam daftar Peran saat ini IAM untuk klaster ini.

    IAMperan yang terkait dengan cluster DB Anda.

Anda harus menambahkan IAM peran ini ke parameter grup aws_default_bedrock_role parameter cluster DB kustom yang terkait dengan cluster Aurora My SQL DB Anda. ARN Jika cluster Aurora My SQL DB Anda tidak menggunakan grup parameter cluster DB kustom, Anda perlu membuatnya untuk digunakan dengan cluster Aurora My SQL DB Anda untuk menyelesaikan integrasi. Untuk informasi selengkapnya, lihat Grup parameter cluster DB untuk cluster Amazon Aurora DB.

Untuk mengkonfigurasi parameter cluster DB
  1. Di RDS Konsol Amazon, buka tab Konfigurasi klaster Aurora My SQL DB Anda.

  2. Temukan grup parameter cluster DB yang dikonfigurasi untuk cluster Anda. Pilih tautan untuk membuka grup parameter cluster DB kustom Anda, lalu pilih Edit.

  3. Temukan parameter aws_default_bedrock_role dalam grup parameter klaster DB kustom Anda.

  4. Di bidang Nilai, masukkan ARN IAM peran.

  5. Pilih Simpan perubahan untuk menyimpan pengaturan.

  6. Reboot instance utama cluster Aurora My SQL DB Anda sehingga pengaturan parameter ini berlaku.

IAMIntegrasi untuk Amazon Bedrock selesai. Lanjutkan menyiapkan cluster Aurora My SQL DB Anda untuk bekerja dengan Amazon Bedrock oleh. Memberikan akses pengguna basis data ke machine learning Aurora

Menyiapkan cluster Aurora My SQL DB Anda untuk menggunakan Amazon Comprehend

Pembelajaran mesin Aurora bergantung pada AWS Identity and Access Management peran dan kebijakan untuk memungkinkan klaster Aurora My SQL DB Anda mengakses dan menggunakan layanan Amazon Comprehend. Prosedur berikut secara otomatis membuat IAM peran dan kebijakan untuk klaster Anda sehingga dapat menggunakan Amazon Comprehend.

Untuk mengatur klaster Aurora My SQL DB Anda agar menggunakan Amazon Comprehend
  1. Masuk ke AWS Management Console dan buka RDS konsol Amazon di https://console.aws.amazon.com/rds/.

  2. Pilih Basis data dari panel navigasi.

  3. Pilih klaster Aurora My SQL DB yang ingin Anda sambungkan ke layanan Amazon Comprehend.

  4. Pilih tab Konektivitas & keamanan.

  5. Untuk bagian Kelola IAM peran, pilih Pilih layanan untuk terhubung ke klaster ini.

  6. Pilih Amazon Comprehend dari menu, lalu pilih Connect service.

    Gambar yang menunjukkan Amazon Comprehend dipilih untuk cluster Aurora My DB. SQL
  7. Dialog Hubungkan klaster ke Amazon Comprehend tidak memerlukan informasi tambahan apa pun. Namun, Anda mungkin melihat pesan yang memberi tahu Anda bahwa integrasi antara Aurora dan Amazon Comprehend saat ini sedang dalam pratinjau. Pastikan untuk membaca pesan tersebut sebelum melanjutkan. Anda dapat memilih Batal jika Anda memilih untuk tidak melanjutkan.

  8. Pilih Hubungkan layanan untuk menyelesaikan proses integrasi.

    Aurora menciptakan peran. IAM Ini juga membuat kebijakan yang memungkinkan klaster Aurora My SQL DB menggunakan layanan Amazon Comprehend dan melampirkan kebijakan ke peran tersebut. Saat proses selesai, Anda dapat menemukan peran dalam daftar Peran saat ini IAM untuk klaster ini seperti yang ditunjukkan pada gambar berikut.

    IAMIntegrasi lengkap untuk menggunakan Amazon Comprehend dengan SQL Aurora My menunjukkan peran Aktif.

    Anda perlu menambahkan IAM peran ini ke parameter grup aws_default_comprehend_role parameter cluster DB kustom yang terkait dengan cluster Aurora My SQL DB Anda. ARN Jika cluster Aurora My SQL DB Anda tidak menggunakan grup parameter cluster DB kustom, Anda perlu membuatnya untuk digunakan dengan cluster Aurora My SQL DB Anda untuk menyelesaikan integrasi. Untuk informasi selengkapnya, lihat Grup parameter cluster DB untuk cluster Amazon Aurora DB.

    Setelah membuat grup parameter cluster DB kustom Anda dan mengaitkannya dengan cluster Aurora SQL My DB Anda, Anda dapat melanjutkan mengikuti langkah-langkah ini.

    Jika klaster Anda menggunakan grup parameter klaster DB kustom, lakukan hal berikut.

    1. Di RDS Konsol Amazon, buka tab Konfigurasi klaster Aurora My SQL DB Anda.

    2. Temukan grup parameter cluster DB yang dikonfigurasi untuk cluster Anda. Pilih tautan untuk membuka grup parameter cluster DB kustom Anda, lalu pilih Edit.

    3. Temukan parameter aws_default_comprehend_role dalam grup parameter klaster DB kustom Anda.

    4. Di bidang Nilai, masukkan ARN IAM peran.

    5. Pilih Simpan perubahan untuk menyimpan pengaturan. Pada gambar berikut, Anda dapat melihat contohnya.

      Menambahkan ARN IAM peran ke grup parameter cluster DB kustom SQL Aurora My.

    Reboot instance utama cluster Aurora My SQL DB Anda sehingga pengaturan parameter ini berlaku.

IAMIntegrasi untuk Amazon Comprehend selesai. Lanjutkan menyiapkan klaster Aurora My SQL DB Anda agar berfungsi dengan Amazon Comprehend dengan memberikan akses ke pengguna database yang sesuai.

Menyiapkan cluster Aurora My SQL DB Anda untuk menggunakan AI SageMaker

Prosedur berikut secara otomatis membuat IAM peran dan kebijakan untuk cluster Aurora My SQL DB Anda sehingga dapat menggunakan SageMaker AI. Sebelum mencoba mengikuti prosedur ini, pastikan Anda memiliki titik akhir SageMaker AI yang tersedia sehingga Anda dapat memasukkannya saat diperlukan. Biasanya, ilmuwan data di tim Anda akan melakukan pekerjaan untuk menghasilkan titik akhir yang dapat Anda gunakan dari cluster Aurora SQL My DB Anda. Anda dapat menemukan titik akhir seperti itu di konsol SageMaker AI. Di panel navigasi, buka menu Inferensi dan pilih Titik akhir. Pada gambar berikut, Anda dapat melihat contohnya.

Gambar yang menunjukkan SageMaker AI dipilih untuk cluster Aurora My SQL DB.
Untuk mengatur cluster Aurora My SQL DB Anda untuk menggunakan AI SageMaker
  1. Masuk ke AWS Management Console dan buka RDS konsol Amazon di https://console.aws.amazon.com/rds/.

  2. Pilih Database dari menu RDS navigasi Amazon dan kemudian pilih cluster Aurora SQL My DB yang ingin Anda sambungkan SageMaker ke layanan AI.

  3. Pilih tab Konektivitas & keamanan.

  4. Gulir ke bagian Kelola IAM peran, lalu pilih Pilih layanan untuk terhubung ke klaster ini. Pilih SageMaker AI dari pemilih.

    Gambar yang menunjukkan SageMaker AI dipilih untuk cluster Aurora My SQL DB.
  5. Pilih Hubungkan layanan.

  6. Dalam dialog Connect cluster to SageMaker AI, masukkan ARN endpoint SageMaker AI.

    Gambar yang menunjukkan Amazon Resource Name (ARN) untuk titik akhir SageMaker AI yang dimasukkan selama proses konfigurasi.
  7. Aurora menciptakan peran. IAM Ini juga menciptakan kebijakan yang memungkinkan cluster Aurora My SQL DB untuk menggunakan layanan SageMaker AI dan melampirkan kebijakan ke peran tersebut. Saat proses selesai, Anda dapat menemukan peran dalam daftar Peran saat ini IAM untuk klaster ini.

  8. Buka konsol IAM di https://console.aws.amazon.com/iam/.

  9. Pilih Peran dari bagian Manajemen akses pada menu navigasi AWS Identity and Access Management .

  10. Temukan peran yang dicari di daftar peran. Namanya menggunakan pola berikut.

    rds-sagemaker-your-cluster-name-role-auto-generated-digits
  11. Buka halaman Ringkasan peran dan temukanARN. Catat ARN atau salin menggunakan widget salin.

  12. Buka RDS konsol Amazon di https://console.aws.amazon.com/rds/.

  13. Pilih klaster Aurora My SQL DB Anda, lalu pilih tab Konfigurasinya.

  14. Temukan grup parameter klaster DB, dan pilih tautan untuk membuka grup parameter klaster DB kustom Anda. Temukan aws_default_sagemaker_role parameter dan masukkan ARN IAM peran di bidang Nilai dan Simpan pengaturan.

  15. Reboot instance utama cluster Aurora My SQL DB Anda sehingga pengaturan parameter ini berlaku.

IAMPengaturan sekarang selesai. Lanjutkan menyiapkan cluster Aurora My SQL DB Anda untuk bekerja dengan SageMaker AI dengan memberikan akses ke pengguna database yang sesuai.

Jika Anda ingin menggunakan model SageMaker AI Anda untuk pelatihan daripada menggunakan komponen SageMaker AI pra-bangun, Anda juga perlu menambahkan bucket Amazon S3 ke cluster Aurora SQL My DB Anda, seperti yang diuraikan dalam berikut ini. Menyiapkan cluster Aurora My SQL DB Anda untuk menggunakan Amazon S3 SageMaker untuk AI (Opsional)

Menyiapkan cluster Aurora My SQL DB Anda untuk menggunakan Amazon S3 SageMaker untuk AI (Opsional)

Untuk menggunakan SageMaker AI dengan model Anda sendiri daripada menggunakan komponen pra-bangun yang disediakan oleh SageMaker AI, Anda perlu menyiapkan bucket Amazon S3 untuk digunakan cluster Aurora SQL My DB. Untuk informasi selengkapnya tentang cara membuat bucket Amazon S3, lihat Membuat bucket dalam Panduan Pengguna Amazon Simple Storage Service.

Untuk mengatur cluster Aurora My SQL DB Anda agar menggunakan bucket Amazon S3 untuk AI SageMaker
  1. Masuk ke AWS Management Console dan buka RDS konsol Amazon di https://console.aws.amazon.com/rds/.

  2. Pilih Database dari menu RDS navigasi Amazon dan kemudian pilih cluster Aurora SQL My DB yang ingin Anda sambungkan SageMaker ke layanan AI.

  3. Pilih tab Konektivitas & keamanan.

  4. Gulir ke bagian Kelola IAM peran, lalu pilih Pilih layanan untuk terhubung ke klaster ini. Pilih Amazon S3 dari pemilih.

    Memilih Amazon S3 sebagai layanan untuk diintegrasikan dengan cluster Aurora My DB. SQL
  5. Pilih Hubungkan layanan.

  6. Dalam dialog Connect cluster to Amazon S3, masukkan bucket Amazon S3, seperti yang ditunjukkan pada gambar berikut. ARN

    Gambar bucket Amazon S3 yang ditentukan untuk cluster Aurora My DB. ARN SQL
  7. Pilih Hubungkan layanan untuk menyelesaikan proses ini.

Untuk informasi selengkapnya tentang menggunakan bucket Amazon S3 dengan SageMaker AI, lihat Menentukan Bucket Amazon S3 untuk Mengunggah Kumpulan Data Pelatihan dan Menyimpan Data Output di Panduan Pengembang Amazon AI. SageMaker Untuk mempelajari selengkapnya tentang bekerja dengan SageMaker AI, lihat SageMaker Memulai Instans Notebook Amazon AI di Panduan Pengembang Amazon SageMaker AI.

Memberikan akses pengguna basis data ke machine learning Aurora

Pengguna database harus diberikan izin untuk menjalankan fungsi pembelajaran mesin Aurora. Cara Anda memberikan izin tergantung pada versi My SQL yang Anda gunakan untuk cluster Aurora My SQL DB Anda, sebagaimana diuraikan dalam berikut ini. Bagaimana Anda melakukannya tergantung pada versi My SQL yang digunakan cluster Aurora My SQL DB Anda.

  • Untuk Aurora My SQL version 3 (My SQL 8.0 kompatibel), pengguna database harus diberikan peran database yang sesuai. Untuk informasi selengkapnya, lihat Menggunakan Peran di Manual Referensi SQL 8.0 Saya.

  • Untuk Aurora My SQL version 2 (My SQL 5.7 kompatibel), pengguna database diberikan hak istimewa. Untuk informasi selengkapnya, lihat Kontrol Akses dan Manajemen Akun di Manual Referensi SQL 5.7 Saya.

Tabel berikut menunjukkan peran dan hak istimewa yang dibutuhkan pengguna database untuk bekerja dengan fungsi pembelajaran mesin.

Aurora SQL Versi saya 3 (peran) Aurora SQL Versi saya 2 (hak istimewa)

AWS_BEDROCK_ACCESS

AWS_COMPREHEND_ACCESS

INVOKE COMPREHEND

AWS_SAGEMAKER_ACCESS

INVOKE SAGEMAKER

Memberikan akses ke fungsi Amazon Bedrock

Untuk memberi pengguna database akses ke fungsi Amazon Bedrock, gunakan SQL pernyataan berikut:

GRANT AWS_BEDROCK_ACCESS TO user@domain-or-ip-address;

Pengguna database juga perlu diberikan EXECUTE izin untuk fungsi yang Anda buat untuk bekerja dengan Amazon Bedrock:

GRANT EXECUTE ON FUNCTION database_name.function_name TO user@domain-or-ip-address;

Terakhir, pengguna database harus mengatur peran mereka keAWS_BEDROCK_ACCESS:

SET ROLE AWS_BEDROCK_ACCESS;

Fungsi Amazon Bedrock sekarang tersedia untuk digunakan.

Memberikan akses ke fungsi Amazon Comprehend

Untuk memberi pengguna database akses ke fungsi Amazon Comprehend, gunakan pernyataan yang sesuai untuk versi Aurora Saya. SQL

  • Aurora SQL Versi saya 3 (kompatibel dengan SQL 8.0 saya)

    GRANT AWS_COMPREHEND_ACCESS TO user@domain-or-ip-address;
  • Aurora SQL Versi saya 2 (kompatibel dengan SQL 5.7 saya)

    GRANT INVOKE COMPREHEND ON *.* TO user@domain-or-ip-address;

Fungsi Amazon Comprehend sekarang tersedia untuk digunakan. Untuk contoh penggunaan, lihat Menggunakan Amazon Comprehend dengan cluster Aurora My DB Anda SQL.

Memberikan akses ke fungsi SageMaker AI

Untuk memberi pengguna database akses ke fungsi SageMaker AI, gunakan pernyataan yang sesuai untuk versi Aurora My SQL Anda.

  • Aurora SQL Versi saya 3 (kompatibel dengan SQL 8.0 saya)

    GRANT AWS_SAGEMAKER_ACCESS TO user@domain-or-ip-address;
  • Aurora SQL Versi saya 2 (kompatibel dengan SQL 5.7 saya)

    GRANT INVOKE SAGEMAKER ON *.* TO user@domain-or-ip-address;

Pengguna database juga perlu diberikan EXECUTE izin untuk fungsi yang Anda buat untuk bekerja dengan SageMaker AI. Misalkan Anda membuat dua fungsi, db1.anomoly_score dandb2.company_forecasts, untuk memanggil layanan titik akhir SageMaker AI Anda. Anda memberikan hak istimewa eksekusi seperti yang ditunjukkan pada contoh berikut.

GRANT EXECUTE ON FUNCTION db1.anomaly_score TO user1@domain-or-ip-address1; GRANT EXECUTE ON FUNCTION db2.company_forecasts TO user2@domain-or-ip-address2;

Fungsi SageMaker AI sekarang tersedia untuk digunakan. Untuk contoh penggunaan, lihat Menggunakan SageMaker AI dengan cluster Aurora My SQL DB Anda.

Menggunakan Amazon Bedrock dengan cluster Aurora My DB SQL Anda

Untuk menggunakan Amazon Bedrock, Anda membuat fungsi (UDF) yang ditentukan pengguna di SQL database Aurora My yang memanggil model. Untuk informasi selengkapnya, lihat Model yang didukung di Amazon Bedrock di Panduan Pengguna Amazon Bedrock.

A UDF menggunakan sintaks berikut:

CREATE FUNCTION function_name (argument type) [DEFINER = user] RETURNS mysql_data_type [SQL SECURITY {DEFINER | INVOKER}] ALIAS AWS_BEDROCK_INVOKE_MODEL MODEL ID 'model_id' [CONTENT_TYPE 'content_type'] [ACCEPT 'content_type'] [TIMEOUT_MS timeout_in_milliseconds];
  • Fungsi Amazon Bedrock tidak mendukungRETURNS JSON. Anda dapat menggunakan CONVERT atau CAST mengonversi dari TEXT ke JSON jika diperlukan.

  • Jika Anda tidak menentukan CONTENT_TYPE atauACCEPT, defaultnya adalahapplication/json.

  • Jika Anda tidak menentukanTIMEOUT_MS, nilai untuk aurora_ml_inference_timeout digunakan.

Misalnya, berikut ini UDF memanggil model Amazon Titan Text Express:

CREATE FUNCTION invoke_titan (request_body TEXT) RETURNS TEXT ALIAS AWS_BEDROCK_INVOKE_MODEL MODEL ID 'amazon.titan-text-express-v1' CONTENT_TYPE 'application/json' ACCEPT 'application/json';

Untuk memungkinkan pengguna DB menggunakan fungsi ini, gunakan SQL perintah berikut:

GRANT EXECUTE ON FUNCTION database_name.invoke_titan TO user@domain-or-ip-address;

Kemudian pengguna dapat memanggil invoke_titan seperti fungsi lainnya, seperti yang ditunjukkan pada contoh berikut. Pastikan untuk memformat badan permintaan sesuai dengan model teks Amazon Titan.

CREATE TABLE prompts (request varchar(1024)); INSERT INTO prompts VALUES ( '{ "inputText": "Generate synthetic data for daily product sales in various categories - include row number, product name, category, date of sale and price. Produce output in JSON format. Count records and ensure there are no more than 5.", "textGenerationConfig": { "maxTokenCount": 1024, "stopSequences": [], "temperature":0, "topP":1 } }'); SELECT invoke_titan(request) FROM prompts; {"inputTextTokenCount":44,"results":[{"tokenCount":296,"outputText":" ```tabular-data-json { "rows": [ { "Row Number": "1", "Product Name": "T-Shirt", "Category": "Clothing", "Date of Sale": "2024-01-01", "Price": "$20" }, { "Row Number": "2", "Product Name": "Jeans", "Category": "Clothing", "Date of Sale": "2024-01-02", "Price": "$30" }, { "Row Number": "3", "Product Name": "Hat", "Category": "Accessories", "Date of Sale": "2024-01-03", "Price": "$15" }, { "Row Number": "4", "Product Name": "Watch", "Category": "Accessories", "Date of Sale": "2024-01-04", "Price": "$40" }, { "Row Number": "5", "Product Name": "Phone Case", "Category": "Accessories", "Date of Sale": "2024-01-05", "Price": "$25" } ] } ```","completionReason":"FINISH"}]}

Untuk model lain yang Anda gunakan, pastikan untuk memformat badan permintaan dengan tepat untuk mereka. Untuk informasi selengkapnya, lihat Parameter inferensi untuk model foundation di Panduan Pengguna Amazon Bedrock.

Menggunakan Amazon Comprehend dengan cluster Aurora My DB Anda SQL

Untuk Aurora My, pembelajaran mesin SQL Aurora menyediakan dua fungsi bawaan berikut untuk bekerja dengan Amazon Comprehend dan data teks Anda. Anda memberikan teks untuk menganalisis (input_data) dan menentukan bahasa (language_code).

aws_comprehend_detect_sentiment

Fungsi ini mengidentifikasi teks seolah-olah memiliki postur emosional positif, negatif, netral, atau campuran. Dokumentasi referensi fungsi ini adalah sebagai berikut.

aws_comprehend_detect_sentiment( input_text, language_code [,max_batch_size] )

Untuk mempelajari selengkapnya, lihat Sentimen di Panduan Developer Amazon Comprehend.

aws_comprehend_detect_sentiment_confidence

Fungsi ini mengukur tingkat kepercayaan sentimen yang terdeteksi untuk teks tertentu. Ia menampilkan nilai (type, double) yang menunjukkan kepercayaan sentimen yang ditetapkan oleh fungsi aws_comprehend_detect_sentiment ke teks. Keyakinan adalah metrik statistik antara 0 dan 1. Makin tinggi tingkat kepercayaan, makin berat hasil yang bisa Anda berikan. Ringkasan dokumentasi fungsinya adalah sebagai berikut.

aws_comprehend_detect_sentiment_confidence( input_text, language_code [,max_batch_size] )

Di kedua fungsi (aws_comprehend_detect_sentiment_confidence, aws_comprehend_detect_sentiment), max_batch_size menggunakan nilai default 25 jika tidak ada yang ditentukan. Ukuran Batch harus selalu lebih besar dari 0. Anda dapat menggunakan max_batch_size untuk menyetel performa dari panggilan fungsi Amazon Comprehend. Ukuran batch yang besar memperdagangkan kinerja yang lebih cepat untuk penggunaan memori yang lebih besar di cluster Aurora My SQL DB. Untuk informasi selengkapnya, lihat Pertimbangan kinerja untuk menggunakan pembelajaran mesin Aurora dengan Aurora My SQL.

Untuk informasi selengkapnya tentang parameter dan tipe pengembalian untuk fungsi deteksi sentimen di Amazon Comprehend, lihat DetectSentiment

contoh Contoh: Kueri sederhana menggunakan fungsi Amazon Comprehend

Berikut adalah contoh kueri sederhana yang menginvokasi dua fungsi ini untuk melihat seberapa senang pelanggan Anda dengan tim dukungan Anda. Misalkan Anda memiliki tabel basis data (support) yang menyimpan umpan balik pelanggan setelah setiap permintaan bantuan. Contoh kueri ini menerapkan kedua fungsi default ke teks di kolom feedback dari tabel dan menampilkan hasilnya. Nilai kepercayaan yang ditampilkan oleh fungsi adalah ganda, antara 0,0 dan 1,0. Untuk output yang lebih mudah dibaca, kueri ini membulatkan hasil menjadi 6 poin desimal. Untuk perbandingan yang lebih mudah, kueri ini juga mengurutkan hasil dalam urutan menurun, dari hasil yang memiliki tingkat kepercayaan tertinggi, pertama.

SELECT feedback AS 'Customer feedback', aws_comprehend_detect_sentiment(feedback, 'en') AS Sentiment, ROUND(aws_comprehend_detect_sentiment_confidence(feedback, 'en'), 6) AS Confidence FROM support ORDER BY Confidence DESC; +----------------------------------------------------------+-----------+------------+ | Customer feedback | Sentiment | Confidence | +----------------------------------------------------------+-----------+------------+ | Thank you for the excellent customer support! | POSITIVE | 0.999771 | | The latest version of this product stinks! | NEGATIVE | 0.999184 | | Your support team is just awesome! I am blown away. | POSITIVE | 0.997774 | | Your product is too complex, but your support is great. | MIXED | 0.957958 | | Your support tech helped me in fifteen minutes. | POSITIVE | 0.949491 | | My problem was never resolved! | NEGATIVE | 0.920644 | | When will the new version of this product be released? | NEUTRAL | 0.902706 | | I cannot stand that chatbot. | NEGATIVE | 0.895219 | | Your support tech talked down to me. | NEGATIVE | 0.868598 | | It took me way too long to get a real person. | NEGATIVE | 0.481805 | +----------------------------------------------------------+-----------+------------+ 10 rows in set (0.1898 sec)
contoh Contoh: Menentukan sentimen rata-rata untuk teks di atas tingkat kepercayaan tertentu

Kueri Amazon Comprehend biasanya mencari baris di mana sentimennya adalah nilai tertentu, dengan tingkat kepercayaan yang lebih besar dari angka tertentu. Misalnya, kueri berikut ini memperlihatkan bagaimana Anda bisa menentukan sentimen rata-rata dokumen di basis data Anda. Kueri hanya mempertimbangkan dokumen dengan tingkat kepercayaan penilaian minimal 80%.

SELECT AVG(CASE aws_comprehend_detect_sentiment(productTable.document, 'en') WHEN 'POSITIVE' THEN 1.0 WHEN 'NEGATIVE' THEN -1.0 ELSE 0.0 END) AS avg_sentiment, COUNT(*) AS total FROM productTable WHERE productTable.productCode = 1302 AND aws_comprehend_detect_sentiment_confidence(productTable.document, 'en') >= 0.80;

Menggunakan SageMaker AI dengan cluster Aurora My SQL DB Anda

Untuk menggunakan fungsionalitas SageMaker AI dari cluster Aurora My SQL DB Anda, Anda perlu membuat fungsi tersimpan yang menyematkan panggilan Anda ke titik akhir SageMaker AI dan fitur inferensinya. Anda melakukannya dengan menggunakan My SQL secara umum dengan cara yang sama seperti yang Anda lakukan untuk tugas pemrosesan lainnya di cluster Aurora My SQL DB Anda. CREATE FUNCTION

Untuk menggunakan model yang diterapkan di SageMaker AI untuk inferensi, Anda membuat fungsi yang ditentukan pengguna menggunakan pernyataan My SQL data definition language (DDL) untuk fungsi yang disimpan. Setiap fungsi yang disimpan mewakili titik akhir SageMaker AI yang menghosting model. Saat Anda menentukan fungsi seperti itu, Anda menentukan parameter input ke model, titik akhir SageMaker AI spesifik yang akan dipanggil, dan jenis pengembalian. Fungsi mengembalikan inferensi yang dihitung oleh titik akhir SageMaker AI setelah menerapkan model ke parameter input.

Semua fungsi tersimpan machine learning Aurora menampilkan tipe numerik atau VARCHAR. Anda dapat menggunakan jenis numerik kecuali BIT. Jenis lainnya, seperti JSON, BLOB, TEXT, dan DATE tidak diizinkan.

Contoh berikut menunjukkan CREATE FUNCTION sintaks untuk bekerja dengan SageMaker AI.

CREATE FUNCTION function_name ( arg1 type1, arg2 type2, ...) [DEFINER = user] RETURNS mysql_type [SQL SECURITY { DEFINER | INVOKER } ] ALIAS AWS_SAGEMAKER_INVOKE_ENDPOINT ENDPOINT NAME 'endpoint_name' [MAX_BATCH_SIZE max_batch_size];

Ini adalah perpanjangan dari CREATE FUNCTION DDL pernyataan reguler. Dalam CREATE FUNCTION pernyataan yang mendefinisikan fungsi SageMaker AI, Anda tidak menentukan badan fungsi. Alih-alih, Anda menentukan kata kunci ALIAS yang biasanya digunakan oleh badan fungsi. Saat ini, machine learning Aurora hanya mendukung aws_sagemaker_invoke_endpoint untuk sintaksis yang diperluas ini. Anda harus menentukan parameter endpoint_name. Titik akhir SageMaker AI dapat memiliki karakteristik yang berbeda untuk setiap model.

catatan

Untuk informasi selengkapnya tentangCREATE FUNCTION, lihat CREATEPROCEDUREdan CREATE FUNCTION Pernyataan di Manual Referensi SQL 8.0 Saya.

Parameter max_batch_size bersifat opsional. Secara default, ukuran batch maksimum adalah 10.000. Anda dapat menggunakan parameter ini dalam fungsi Anda untuk membatasi jumlah maksimum input yang diproses dalam permintaan batch ke AI. SageMaker max_batch_sizeParameter dapat membantu menghindari kesalahan yang disebabkan oleh input yang terlalu besar, atau membuat SageMaker AI mengembalikan respons lebih cepat. Parameter ini memengaruhi ukuran buffer internal yang digunakan untuk pemrosesan permintaan SageMaker AI. Menentukan nilai yang terlalu besar untuk max_batch_size dapat menyebabkan overhead memori yang besar pada instans DB Anda.

Sebaiknya biarkan pengaturan MANIFEST pada nilai default OFF. Meskipun Anda dapat menggunakan MANIFEST ON opsi ini, beberapa fitur SageMaker AI tidak dapat langsung menggunakan yang CSV diekspor dengan opsi ini. Format manifes tidak kompatibel dengan format manifes yang diharapkan dari SageMaker AI.

Anda membuat fungsi tersimpan terpisah untuk setiap model SageMaker AI Anda. Pemetaan fungsi ke model ini diperlukan karena titik akhir dikaitkan dengan model tertentu, dan setiap model menerima parameter yang berbeda. Menggunakan SQL tipe untuk input model dan tipe keluaran model membantu menghindari kesalahan konversi tipe yang meneruskan data bolak-balik antara AWS layanan. Anda dapat mengontrol siapa yang dapat menerapkan model tersebut. Anda juga dapat mengontrol karakteristik runtime dengan menentukan parameter yang mewakili ukuran batch maksimum.

Saat ini, semua fungsi machine learning Aurora memiliki properti NOT DETERMINISTIC. Jika Anda tidak menentukan properti tersebut secara eksplisit, Aurora menyetel NOT DETERMINISTIC secara otomatis. Persyaratan ini karena model SageMaker AI dapat diubah tanpa pemberitahuan apa pun ke database. Jika itu terjadi, panggilan ke fungsi machine learning Aurora mungkin menampilkan hasil yang berbeda untuk input yang sama dalam satu transaksi.

Anda tidak dapat menggunakan karakteristik CONTAINS SQL, NO SQL, READS SQL DATA, atau MODIFIES SQL DATA dalam pernyataan CREATE FUNCTION Anda.

Berikut ini adalah contoh penggunaan titik akhir SageMaker AI untuk mendeteksi anomali. Ada titik akhir SageMaker random-cut-forest-model AI. Model yang sesuai sudah dilatih oleh algoritma random-cut-forest. Untuk setiap input, model menampilkan skor anomali. Contoh ini menunjukkan poin data yang nilainya lebih besar dari 3 deviasi standar (kira-kira persentil ke-99,9) dari skor rata-rata.

CREATE FUNCTION anomaly_score(value real) returns real alias aws_sagemaker_invoke_endpoint endpoint name 'random-cut-forest-model-demo'; set @score_cutoff = (select avg(anomaly_score(value)) + 3 * std(anomaly_score(value)) from nyc_taxi); select *, anomaly_detection(value) score from nyc_taxi where anomaly_detection(value) > @score_cutoff;

Persyaratan set karakter untuk fungsi SageMaker AI yang mengembalikan string

Sebaiknya tentukan kumpulan karakter utf8mb4 sebagai tipe pengembalian untuk fungsi SageMaker AI Anda yang mengembalikan nilai string. Jika itu tidak praktis, gunakan panjang string yang cukup besar agar jenis kembalian dapat menampung nilai yang direpresentasikan dalam kumpulan karakter utf8mb4. Contoh berikut menunjukkan cara mendeklarasikan set karakter utf8mb4 untuk fungsi Anda.

CREATE FUNCTION my_ml_func(...) RETURNS VARCHAR(5) CHARSET utf8mb4 ALIAS ...

Saat ini, setiap fungsi SageMaker AI yang mengembalikan string menggunakan set karakter utf8mb4 untuk nilai yang dikembalikan. Nilai yang dikembalikan menggunakan set karakter ini meskipun fungsi SageMaker AI Anda mendeklarasikan set karakter yang berbeda untuk tipe pengembaliannya secara implisit atau eksplisit. Jika fungsi SageMaker AI Anda mendeklarasikan set karakter yang berbeda untuk nilai yang dikembalikan, data yang dikembalikan mungkin terpotong secara diam-diam jika Anda menyimpannya di kolom tabel yang tidak cukup panjang. Misalnya, kueri dengan klausa DISTINCT membuat tabel sementara. Dengan demikian, hasil fungsi SageMaker AI mungkin terpotong karena cara string ditangani secara internal selama kueri.

Mengekspor data ke Amazon S3 SageMaker untuk pelatihan model AI (Lanjutan)

Kami menyarankan Anda memulai pembelajaran mesin Aurora dan SageMaker AI dengan menggunakan beberapa algoritme yang disediakan, dan bahwa ilmuwan data di tim Anda memberi Anda titik akhir SageMaker AI yang dapat Anda gunakan dengan kode Anda. SQL Berikut ini, Anda dapat menemukan informasi minimal tentang penggunaan bucket Amazon S3 Anda sendiri dengan model SageMaker AI Anda sendiri dan cluster Aurora My DB Anda. SQL

Machine learning terdiri dari dua langkah utama: pelatihan, dan inferensi. Untuk melatih model SageMaker AI, Anda mengekspor data ke bucket Amazon S3. Bucket Amazon S3 digunakan oleh instance notebook Jupyter SageMaker AI untuk melatih model Anda sebelum digunakan. Anda dapat menggunakan SELECT INTO OUTFILE S3 pernyataan untuk menanyakan data dari cluster Aurora My SQL DB dan menyimpannya langsung ke file teks yang disimpan dalam bucket Amazon S3. Kemudian instans notebook menggunakan data dari bucket Amazon S3 untuk pelatihan.

Pembelajaran mesin Aurora memperluas SELECT INTO OUTFILE sintaks yang ada di Aurora SQL My untuk mengekspor data ke format. CSV CSVFile yang dihasilkan dapat langsung dikonsumsi oleh model yang membutuhkan format ini untuk tujuan pelatihan.

SELECT * INTO OUTFILE S3 's3_uri' [FORMAT {CSV|TEXT} [HEADER]] FROM table_name;

Ekstensi mendukung CSV format standar.

  • TEXTFormatnya sama dengan format SQL ekspor Saya yang ada. Ini adalah format default.

  • Format CSV adalah format yang baru diperkenalkan yang mengikuti spesifikasi di RFC-4180.

  • Jika Anda menentukan kata kunci opsional HEADER, file output akan berisi satu baris header. Label di baris header sesuai dengan nama kolom dari pernyataan SELECT.

  • Anda masih dapat menggunakan kata kunci CSV dan HEADER sebagai pengenal.

Sintaks dan tata bahasa SELECT INTO yang diperluas sekarang adalah sebagai berikut:

INTO OUTFILE S3 's3_uri' [CHARACTER SET charset_name] [FORMAT {CSV|TEXT} [HEADER]] [{FIELDS | COLUMNS} [TERMINATED BY 'string'] [[OPTIONALLY] ENCLOSED BY 'char'] [ESCAPED BY 'char'] ] [LINES [STARTING BY 'string'] [TERMINATED BY 'string'] ]

Pertimbangan kinerja untuk menggunakan pembelajaran mesin Aurora dengan Aurora My SQL

Amazon Bedrock, Amazon Comprehend SageMaker , dan layanan AI melakukan sebagian besar pekerjaan ketika dipanggil oleh fungsi pembelajaran mesin Aurora. Itu berarti Anda dapat menskalakan sumber daya tersebut sesuai kebutuhan, secara mandiri. Untuk cluster Aurora My SQL DB Anda, Anda dapat membuat panggilan fungsi Anda seefisien mungkin. Berikut ini, Anda dapat menemukan beberapa pertimbangan performa yang perlu diperhatikan saat bekerja dengan machine learning Aurora.

Model dan prompt

Performa saat menggunakan Amazon Bedrock sangat bergantung pada model dan prompt yang Anda gunakan. Pilih model dan prompt yang optimal untuk kasus penggunaan Anda.

Cache kueri

Cache SQL kueri Aurora My tidak berfungsi untuk fungsi pembelajaran mesin Aurora. Aurora My SQL tidak menyimpan hasil kueri di cache kueri untuk SQL pernyataan apa pun yang memanggil fungsi pembelajaran mesin Aurora.

Optimalisasi batch untuk panggilan fungsi machine learning Aurora

Aspek performa utama machine learning Aurora yang dapat Anda pengaruhi dari klaster Aurora adalah pengaturan mode batch untuk panggilan ke fungsi tersimpan machine learning Aurora. Fungsi machine learning biasanya membutuhkan overhead yang besar, sehingga tidak praktis untuk memanggil layanan eksternal secara terpisah untuk setiap baris. Machine learning Aurora dapat meminimalkan overhead ini dengan menggabungkan panggilan ke layanan machine learning Aurora eksternal untuk banyak baris ke dalam satu batch. Machine learning Aurora menerima respons untuk semua baris input, dan mengirimkan respons, satu baris dalam satu waktu, ke kueri saat dijalankan. Pengoptimalan ini meningkatkan throughput dan latensi kueri Aurora Anda tanpa mengubah hasil.

Saat Anda membuat fungsi tersimpan Aurora yang terhubung ke titik akhir SageMaker AI, Anda menentukan parameter ukuran batch. Parameter ini memengaruhi berapa banyak baris yang ditransfer untuk setiap panggilan yang mendasarinya ke SageMaker AI. Untuk kueri yang memproses sejumlah besar baris, overhead untuk membuat panggilan SageMaker AI terpisah untuk setiap baris bisa sangat besar. Semakin besar kumpulan data yang diproses oleh prosedur tersimpan, semakin besar Anda dapat membuat ukuran batch.

Jika pengoptimalan mode batch dapat diterapkan ke fungsi SageMaker AI, Anda dapat mengetahuinya dengan memeriksa paket kueri yang dihasilkan oleh EXPLAIN PLAN pernyataan tersebut. Dalam kasus ini, kolom extra dalam rencana eksekusi termasuk Batched machine learning. Contoh berikut menunjukkan panggilan ke fungsi SageMaker AI yang menggunakan mode batch.

mysql> CREATE FUNCTION anomaly_score(val real) returns real alias aws_sagemaker_invoke_endpoint endpoint name 'my-rcf-model-20191126'; Query OK, 0 rows affected (0.01 sec) mysql> explain select timestamp, value, anomaly_score(value) from nyc_taxi; +----+-------------+----------+------------+------+---------------+------+---------+------+------+----------+--------------------------+ | id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra | +----+-------------+----------+------------+------+---------------+------+---------+------+------+----------+--------------------------+ | 1 | SIMPLE | nyc_taxi | NULL | ALL | NULL | NULL | NULL | NULL | 48 | 100.00 | Batched machine learning | +----+-------------+----------+------------+------+---------------+------+---------+------+------+----------+--------------------------+ 1 row in set, 1 warning (0.01 sec)

Saat Anda memanggil salah satu fungsi Amazon Comprehend default, Anda dapat mengontrol ukuran batch dengan menentukan parameter max_batch_size opsional. Parameter ini membatasi jumlah maksimum nilai input_text yang diproses di setiap batch. Dengan mengirim beberapa item sekaligus, ini mengurangi jumlah perjalanan bolak-balik antara Aurora dan Amazon Comprehend. Membatasi ukuran batch berguna dalam situasi seperti kueri dengan klausa LIMIT. Dengan menggunakan nilai kecil untuk max_batch_size, Anda dapat menghindari permintaan Amazon Comprehend lebih sering daripada Anda memiliki teks input.

Optimalisasi batch untuk mengevaluasi fungsi machine learning Aurora berlaku dalam kasus berikut:

  • Fungsi panggilan dalam daftar pilih atau WHERE klausa pernyataan SELECT

  • Panggilan fungsi dalam VALUES daftar INSERT dan REPLACE pernyataan

  • SageMaker Fungsi AI dalam SET nilai dalam UPDATE pernyataan:

    INSERT INTO MY_TABLE (col1, col2, col3) VALUES (ML_FUNC(1), ML_FUNC(2), ML_FUNC(3)), (ML_FUNC(4), ML_FUNC(5), ML_FUNC(6)); UPDATE MY_TABLE SET col1 = ML_FUNC(col2), SET col3 = ML_FUNC(col4) WHERE ...;

Memantau machine learning Aurora

Anda dapat memantau operasi batch pembelajaran mesin Aurora dengan menanyakan beberapa variabel global, seperti yang ditunjukkan pada contoh berikut.

show status like 'Aurora_ml%';

Anda dapat mengatur ulang variabel status dengan menggunakan pernyataan FLUSH STATUS. Jadi, semua angka mewakili total, rata-rata, dan seterusnya, sejak terakhir kali variabel disetel ulang.

Aurora_ml_logical_request_cnt

Jumlah permintaan logis yang telah dievaluasi instans DB untuk dikirim ke layanan machine learning Aurora sejak status pengaturan ulang status terakhir. Bergantung pada apakah proses batching telah digunakan, nilai ini dapat lebih tinggi dari Aurora_ml_actual_request_cnt.

Aurora_ml_logical_response_cnt

Jumlah respons agregat yang diterima Aurora SQL My dari layanan pembelajaran mesin Aurora di semua kueri yang dijalankan oleh pengguna instans DB.

Aurora_ml_actual_request_cnt

Jumlah permintaan agregat yang dibuat Aurora SQL My ke layanan pembelajaran mesin Aurora di semua kueri yang dijalankan oleh pengguna instans DB.

Aurora_ml_actual_response_cnt

Jumlah respons agregat yang diterima Aurora SQL My dari layanan pembelajaran mesin Aurora di semua kueri yang dijalankan oleh pengguna instans DB.

Aurora_ml_cache_hit_cnt

Jumlah cache internal agregat yang diterima Aurora SQL My dari layanan pembelajaran mesin Aurora di semua kueri yang dijalankan oleh pengguna instans DB.

Aurora_ml_retry_request_cnt

Jumlah permintaan yang dicoba ulang yang dikirim instans DB ke layanan machine learning Aurora sejak pengaturan ulang status terakhir.

Aurora_ml_single_request_cnt

Jumlah gabungan fungsi machine learning Aurora yang dievaluasi oleh mode non-batch di semua kueri yang dijalankan oleh pengguna instans DB.

Untuk informasi tentang pemantauan kinerja operasi SageMaker AI yang disebut dari fungsi pembelajaran mesin Aurora, lihat Memantau Amazon SageMaker AI.