OpenAI telah banyak diperbarui, dan menjadi lebih kuat lagi! API memiliki kemampuan pemanggilan fungsi yang mengerikan, dapat menangani konteks yang lebih lama, dan harganya turun hingga 75%!
Pada 13 Juni, situs resmi OpenAI tiba-tiba merilis pembaruan kemampuan terbaru ChatGPT. Poin-poin utamanya adalah sebagai berikut:
Fungsi baru: Kemampuan pemanggilan fungsi baru telah ditambahkan ke API Penyelesaian Obrolan, yang memungkinkan model untuk memanggil fungsi dan menghasilkan objek JSON yang sesuai sebagai keluaran saat dibutuhkan. Hal ini memungkinkan pengembang mendapatkan data terstruktur dari model dengan lebih akurat, mewujudkan konversi dari bahasa alami ke panggilan API atau kueri basis data, dan juga dapat digunakan untuk mengekstrak data terstruktur dari teks.
(Yaitu, setelah penyempurnaan OpenAI, jika Anda mengucapkan kata-kata manusia padanya, itu dapat mengenalinya dan mengubahnya menjadi fungsi untuk Anda, selanjutnya menyadari kemampuan pemrograman tanpa pemrograman, dan lebih mudah diperoleh dari data terstruktur struktur kacau)
Pembaruan model: memperbarui versi gpt-4 dan gpt-3.5-turbo yang lebih dapat dikontrol, dan versi konteks 16k baru dari gpt-3.5-turbo, yang dapat menangani teks lebih panjang daripada versi standar 4k.
(dapat mendukung 20 halaman teks!)
Penghentian model: Mengumumkan garis waktu penghentian model gpt-3.5-turbo-0301 dan gpt-4-0314. Pengguna model ini dapat memilih untuk meningkatkan ke model yang lebih baru hingga waktu tertentu, setelah itu model lama tidak akan tersedia lagi.
(Di satu sisi, perhatikan mereka yang masih menggunakan model ini, harap ikuti ritme OpenAI yang gila. Di sisi lain, banyak orang yang telah membandingkan model versi OpenAI sebelumnya, OpenAI telah meninggalkannya..)
Penyesuaian harga: Harga model penyematan paling canggih telah dikurangi sebesar 75%, dan harga token input gpt-3.5-turbo telah dikurangi sebesar 25%.
(Sam Altman baru-baru ini mengatakan dalam parade bahwa harga akan terus turun, dan ini akan datang. Dan penurunan harga adalah harga model terkuat yang dipotong pergelangan kaki. Harga terbaru, per 1k token, adalah 0,0001 dolar AS)
OpenAI juga menekankan bahwa semua model ini terus mempertahankan privasi data dan jaminan keamanan yang diperkenalkan pada 1 Maret-klien memiliki semua keluaran yang mereka minta untuk dihasilkan, dan data API mereka tidak akan digunakan untuk pelatihan. Dengan pembaruan ini, kami mengundang lebih banyak orang dalam daftar tunggu untuk mencoba GPT-4, dan kami berharap dapat melihat proyek apa yang Anda buat dengan GPT-4! Kami mendorong umpan balik pengembang untuk membantu kami memastikan kelancaran transisi pembaruan model.
Berikut adalah teks lengkap dari pengumuman tersebut:
Kami merilis model gpt-3.5-turbo dan gpt-4 awal tahun ini, dan hanya dalam beberapa bulan kami telah melihat pengembang membangun aplikasi luar biasa di atas model ini. Hari ini, kami menindaklanjuti dengan beberapa pembaruan menarik:
Fungsi panggilan fungsi baru di API Penyelesaian Obrolan
· Versi gpt-4 dan gpt-3.5-turbo yang diperbarui dengan kemampuan kontrol tambahan
· Versi konteks 16k baru dari gpt-3.5-turbo (vs. versi standar 4k)
75% pengurangan harga model penyematan canggih kami
25% pengurangan harga token input gpt-3.5-turbo
Garis waktu penghentian penggunaan untuk model gpt-3.5-turbo-0301 dan gpt-4-0314 telah diumumkan
Semua model ini hadir dengan jaminan privasi dan keamanan data yang sama seperti yang kami luncurkan pada tanggal 1 Maret - pelanggan memiliki semua keluaran yang dihasilkan oleh permintaan mereka, dan data API mereka tidak digunakan untuk pelatihan. panggilan fungsi
Pengembang sekarang dapat mendeskripsikan fungsi ke gpt-4-0613 dan gpt-3.5-turbo-0613, dan membuat model secara cerdas memilih untuk mengeluarkan objek JSON yang berisi argumen untuk memanggil fungsi tersebut. Ini adalah cara baru untuk menghubungkan kemampuan GPT dengan alat dan API eksternal secara lebih andal. Model ini telah disesuaikan untuk mendeteksi kapan suatu fungsi perlu dipanggil (bergantung pada masukan pengguna) dan merespons dengan JSON yang sesuai dengan tanda tangan fungsi. Panggilan fungsi memungkinkan pengembang mengambil data terstruktur dari model dengan lebih andal. Misalnya, pengembang dapat:
Buat chatbot yang menjawab pertanyaan dengan memanggil alat eksternal seperti plugin ChatGPT;
Mengubah pertanyaan seperti "Tanya Anya apakah dia mau kopi Jumat depan" menjadi pemanggilan fungsi seperti send_email(to: string, body: string), atau "Bagaimana cuaca di Boston sekarang?" menjadi get_current _weather( lokasi: string, satuan: 'celsius' | 'fahrenheit');
· Ubah bahasa alami menjadi panggilan API atau kueri basis data;
Ubah "Siapa sepuluh pelanggan teratas saya bulan ini?" menjadi panggilan API internal seperti get_customers_by_revenue(start_date: string, end_date: string, limit: int), atau "on Berapa banyak pesanan apakah Acme, Inc. ditempatkan dalam sebulan?" Gunakan sql_query(query: string) untuk mengonversi ke kueri SQL;
Ekstrak data terstruktur dari teks;
· Tentukan fungsi yang disebut ekstrak_orang_data(orang: [{nama: string, ulang tahun: string, lokasi: string}]) untuk mengekstrak semua penyebutan orang dari artikel Wikipedia.
Semua kasus penggunaan ini diaktifkan oleh parameter API baru di /v1/chat/completions endpoint, fungsi, dan function_call kami, yang memungkinkan developer mendeskripsikan fungsi ke model melalui Skema JSON, dan secara opsional memintanya untuk memanggil fungsi tertentu. Silakan mulai dengan dokumen pengembang kami, dan jika Anda melihat situasi di mana pemanggilan fungsi dapat ditingkatkan, tambahkan evaluasi.
contoh pemanggilan fungsi
Seperti apa cuaca di Boston saat ini?
Langkah 1
OpenAI API
Panggil model dengan fungsi dan input pengguna
Langkah 2
API pihak ketiga
Panggil API Anda dengan respons model
langkah 3
OpenAI API
Kirim jawaban kembali ke model untuk diringkas Cuaca di Boston saat ini cerah dengan suhu 22 derajat Celcius. Sejak rilis alfa plugin ChatGPT, kami telah belajar banyak tentang cara membuat alat dan model bahasa bekerja sama dengan aman. Namun, masih ada beberapa pertanyaan penelitian terbuka. Misalnya, kerentanan proof-of-concept mengilustrasikan bagaimana mendapatkan data yang tidak dipercaya dari output alat dapat menyebabkan model melakukan tindakan yang tidak terduga. Kami bekerja keras untuk memitigasi risiko ini dan risiko lainnya. Pengembang dapat melindungi aplikasi mereka hanya dengan menggunakan informasi dari alat tepercaya dan menyertakan langkah konfirmasi pengguna sebelum mengambil tindakan yang berdampak nyata, seperti mengirim email, memposting secara online, atau melakukan pembelian.
model baru
GPT-4
gpt-4-0613 menyertakan model yang diperbarui dan ditingkatkan, dan fungsionalitas pemanggilan fungsi.
gpt-4-32k-0613 menyertakan peningkatan yang sama seperti gpt-4-0613, ditambah panjang konteks yang ditingkatkan untuk pemahaman yang lebih baik tentang teks yang lebih besar.
Dengan pembaruan ini, kami akan mengundang lebih banyak orang di daftar tunggu untuk mencoba GPT-4 dalam beberapa minggu mendatang, dengan tujuan menghapus daftar tunggu untuk model ini seluruhnya. Terima kasih kepada semua orang yang telah bersabar, kami berharap dapat melihat apa yang Anda buat dengan GPT-4!
GPT-3.5 Turbo
gpt-3.5-turbo-0613 mencakup kemampuan pemanggilan fungsi yang sama dengan GPT-4, serta kontrol yang lebih andal melalui pesan sistem, yang keduanya memungkinkan pengembang untuk memandu respons model secara lebih efisien.
gpt-3.5-turbo-16k menyediakan empat kali panjang konteks gpt-3.5-turbo, tetapi dengan harga dua kali lipat: $0,003 per 1K token input dan $0,004 per 1K output token. Konteks 16k berarti model sekarang dapat digunakan di Sekitar 20 halaman teks didukung dalam satu permintaan.
penghentian model
Hari ini kami akan memulai proses pemutakhiran dan penghentian versi awal gpt-4 dan gpt-3.5-turbo yang kami umumkan pada bulan Maret. Aplikasi yang menggunakan nama model stabil (gpt-3.5-turbo, gpt-4, dan gpt-4-32k) akan otomatis ditingkatkan ke model baru yang tercantum di atas pada tanggal 27 Juni. Untuk membandingkan kinerja antara versi model, pustaka kami mendukung evaluasi publik dan pribadi untuk menunjukkan bagaimana perubahan model akan memengaruhi kasus penggunaan Anda.
Pengembang yang membutuhkan lebih banyak waktu untuk transisi dapat terus menggunakan model lama dengan menentukan gpt-3.5-turbo-0301, gpt-4-0314, atau gpt-4-32k-0314 dalam parameter 'model' permintaan API mereka. Model lama ini masih dapat diakses setelah tanggal 13 September, setelah itu permintaan yang menentukan nama model ini akan gagal. Anda dapat terus mengikuti perkembangan terbaru tentang penghentian model di halaman penghentian model kami. Ini adalah pembaruan pertama untuk model ini; oleh karena itu, kami menerima masukan pengembang untuk membantu kami memastikan kelancaran transisi.
Turunkan harga
Mulai hari ini, kami terus meningkatkan efisiensi sistem kami dan meneruskan penghematan biaya ini kepada pengembang.
Penyematan
text-embedding-ada-002 adalah model embedding kami yang paling populer. Hari ini kami mengurangi biayanya sebesar 75% menjadi $0,0001 per 1.000 token.
GPT-3.5 Turbo
gpt-3.5-turbo adalah model obrolan kami yang paling populer, menyediakan layanan ChatGPT untuk jutaan pengguna. Hari ini kami mengurangi biaya token input gpt-3.5-turbo sebesar 25%. Pengembang sekarang dapat menggunakan model ini untuk $0,0015 per 1K token masukan dan $0,002 per 1K token keluaran, yang setara dengan sekitar 700 halaman per dolar.
Harga gpt-3.5-turbo-16k akan menjadi $0,003 per 1K token masukan dan $0,004 per 1K token keluaran.
Umpan balik pengembang adalah landasan evolusi platform kami, dan kami akan terus melakukan peningkatan berdasarkan saran yang kami terima. Kami menantikan untuk melihat bagaimana pengembang menggunakan model dan fitur terbaru ini di aplikasi mereka.
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
OpenAI telah banyak diperbarui, dan menjadi lebih kuat lagi! API memiliki kemampuan pemanggilan fungsi yang mengerikan, dapat menangani konteks yang lebih lama, dan harganya turun hingga 75%!
Pada 13 Juni, situs resmi OpenAI tiba-tiba merilis pembaruan kemampuan terbaru ChatGPT. Poin-poin utamanya adalah sebagai berikut:
OpenAI juga menekankan bahwa semua model ini terus mempertahankan privasi data dan jaminan keamanan yang diperkenalkan pada 1 Maret-klien memiliki semua keluaran yang mereka minta untuk dihasilkan, dan data API mereka tidak akan digunakan untuk pelatihan. Dengan pembaruan ini, kami mengundang lebih banyak orang dalam daftar tunggu untuk mencoba GPT-4, dan kami berharap dapat melihat proyek apa yang Anda buat dengan GPT-4! Kami mendorong umpan balik pengembang untuk membantu kami memastikan kelancaran transisi pembaruan model.
Berikut adalah teks lengkap dari pengumuman tersebut:
Kami merilis model gpt-3.5-turbo dan gpt-4 awal tahun ini, dan hanya dalam beberapa bulan kami telah melihat pengembang membangun aplikasi luar biasa di atas model ini. Hari ini, kami menindaklanjuti dengan beberapa pembaruan menarik:
Fungsi panggilan fungsi baru di API Penyelesaian Obrolan
· Versi gpt-4 dan gpt-3.5-turbo yang diperbarui dengan kemampuan kontrol tambahan
· Versi konteks 16k baru dari gpt-3.5-turbo (vs. versi standar 4k)
75% pengurangan harga model penyematan canggih kami
25% pengurangan harga token input gpt-3.5-turbo
Garis waktu penghentian penggunaan untuk model gpt-3.5-turbo-0301 dan gpt-4-0314 telah diumumkan
Semua model ini hadir dengan jaminan privasi dan keamanan data yang sama seperti yang kami luncurkan pada tanggal 1 Maret - pelanggan memiliki semua keluaran yang dihasilkan oleh permintaan mereka, dan data API mereka tidak digunakan untuk pelatihan. panggilan fungsi
Pengembang sekarang dapat mendeskripsikan fungsi ke gpt-4-0613 dan gpt-3.5-turbo-0613, dan membuat model secara cerdas memilih untuk mengeluarkan objek JSON yang berisi argumen untuk memanggil fungsi tersebut. Ini adalah cara baru untuk menghubungkan kemampuan GPT dengan alat dan API eksternal secara lebih andal. Model ini telah disesuaikan untuk mendeteksi kapan suatu fungsi perlu dipanggil (bergantung pada masukan pengguna) dan merespons dengan JSON yang sesuai dengan tanda tangan fungsi. Panggilan fungsi memungkinkan pengembang mengambil data terstruktur dari model dengan lebih andal. Misalnya, pengembang dapat:
Buat chatbot yang menjawab pertanyaan dengan memanggil alat eksternal seperti plugin ChatGPT;
Mengubah pertanyaan seperti "Tanya Anya apakah dia mau kopi Jumat depan" menjadi pemanggilan fungsi seperti send_email(to: string, body: string), atau "Bagaimana cuaca di Boston sekarang?" menjadi get_current _weather( lokasi: string, satuan: 'celsius' | 'fahrenheit');
· Ubah bahasa alami menjadi panggilan API atau kueri basis data;
Ubah "Siapa sepuluh pelanggan teratas saya bulan ini?" menjadi panggilan API internal seperti get_customers_by_revenue(start_date: string, end_date: string, limit: int), atau "on Berapa banyak pesanan apakah Acme, Inc. ditempatkan dalam sebulan?" Gunakan sql_query(query: string) untuk mengonversi ke kueri SQL;
Ekstrak data terstruktur dari teks;
· Tentukan fungsi yang disebut ekstrak_orang_data(orang: [{nama: string, ulang tahun: string, lokasi: string}]) untuk mengekstrak semua penyebutan orang dari artikel Wikipedia.
Semua kasus penggunaan ini diaktifkan oleh parameter API baru di /v1/chat/completions endpoint, fungsi, dan function_call kami, yang memungkinkan developer mendeskripsikan fungsi ke model melalui Skema JSON, dan secara opsional memintanya untuk memanggil fungsi tertentu. Silakan mulai dengan dokumen pengembang kami, dan jika Anda melihat situasi di mana pemanggilan fungsi dapat ditingkatkan, tambahkan evaluasi.
contoh pemanggilan fungsi
Seperti apa cuaca di Boston saat ini?
OpenAI API
Panggil model dengan fungsi dan input pengguna
Langkah 2
API pihak ketiga
Panggil API Anda dengan respons model
langkah 3
OpenAI API
Kirim jawaban kembali ke model untuk diringkas Cuaca di Boston saat ini cerah dengan suhu 22 derajat Celcius. Sejak rilis alfa plugin ChatGPT, kami telah belajar banyak tentang cara membuat alat dan model bahasa bekerja sama dengan aman. Namun, masih ada beberapa pertanyaan penelitian terbuka. Misalnya, kerentanan proof-of-concept mengilustrasikan bagaimana mendapatkan data yang tidak dipercaya dari output alat dapat menyebabkan model melakukan tindakan yang tidak terduga. Kami bekerja keras untuk memitigasi risiko ini dan risiko lainnya. Pengembang dapat melindungi aplikasi mereka hanya dengan menggunakan informasi dari alat tepercaya dan menyertakan langkah konfirmasi pengguna sebelum mengambil tindakan yang berdampak nyata, seperti mengirim email, memposting secara online, atau melakukan pembelian.
model baru
GPT-4
gpt-4-0613 menyertakan model yang diperbarui dan ditingkatkan, dan fungsionalitas pemanggilan fungsi.
gpt-4-32k-0613 menyertakan peningkatan yang sama seperti gpt-4-0613, ditambah panjang konteks yang ditingkatkan untuk pemahaman yang lebih baik tentang teks yang lebih besar.
Dengan pembaruan ini, kami akan mengundang lebih banyak orang di daftar tunggu untuk mencoba GPT-4 dalam beberapa minggu mendatang, dengan tujuan menghapus daftar tunggu untuk model ini seluruhnya. Terima kasih kepada semua orang yang telah bersabar, kami berharap dapat melihat apa yang Anda buat dengan GPT-4!
GPT-3.5 Turbo
gpt-3.5-turbo-0613 mencakup kemampuan pemanggilan fungsi yang sama dengan GPT-4, serta kontrol yang lebih andal melalui pesan sistem, yang keduanya memungkinkan pengembang untuk memandu respons model secara lebih efisien.
gpt-3.5-turbo-16k menyediakan empat kali panjang konteks gpt-3.5-turbo, tetapi dengan harga dua kali lipat: $0,003 per 1K token input dan $0,004 per 1K output token. Konteks 16k berarti model sekarang dapat digunakan di Sekitar 20 halaman teks didukung dalam satu permintaan.
penghentian model
Hari ini kami akan memulai proses pemutakhiran dan penghentian versi awal gpt-4 dan gpt-3.5-turbo yang kami umumkan pada bulan Maret. Aplikasi yang menggunakan nama model stabil (gpt-3.5-turbo, gpt-4, dan gpt-4-32k) akan otomatis ditingkatkan ke model baru yang tercantum di atas pada tanggal 27 Juni. Untuk membandingkan kinerja antara versi model, pustaka kami mendukung evaluasi publik dan pribadi untuk menunjukkan bagaimana perubahan model akan memengaruhi kasus penggunaan Anda.
Pengembang yang membutuhkan lebih banyak waktu untuk transisi dapat terus menggunakan model lama dengan menentukan gpt-3.5-turbo-0301, gpt-4-0314, atau gpt-4-32k-0314 dalam parameter 'model' permintaan API mereka. Model lama ini masih dapat diakses setelah tanggal 13 September, setelah itu permintaan yang menentukan nama model ini akan gagal. Anda dapat terus mengikuti perkembangan terbaru tentang penghentian model di halaman penghentian model kami. Ini adalah pembaruan pertama untuk model ini; oleh karena itu, kami menerima masukan pengembang untuk membantu kami memastikan kelancaran transisi.
Turunkan harga
Mulai hari ini, kami terus meningkatkan efisiensi sistem kami dan meneruskan penghematan biaya ini kepada pengembang.
Penyematan
text-embedding-ada-002 adalah model embedding kami yang paling populer. Hari ini kami mengurangi biayanya sebesar 75% menjadi $0,0001 per 1.000 token.
GPT-3.5 Turbo
gpt-3.5-turbo adalah model obrolan kami yang paling populer, menyediakan layanan ChatGPT untuk jutaan pengguna. Hari ini kami mengurangi biaya token input gpt-3.5-turbo sebesar 25%. Pengembang sekarang dapat menggunakan model ini untuk $0,0015 per 1K token masukan dan $0,002 per 1K token keluaran, yang setara dengan sekitar 700 halaman per dolar.
Harga gpt-3.5-turbo-16k akan menjadi $0,003 per 1K token masukan dan $0,004 per 1K token keluaran.