OpenAIのヘルスAI部門責任者であるKaran Singhal氏は次のように答えた。 ChatGPT は今後、健康や法律に関するアドバイスを提供しなくなります。 シンガル氏は次のように指摘した。 ChatGPT は、「個人向けで専門的な」医療または法律に関するアドバイスを直接提供することを許可されたことはありません。 このルールは新しいものではなく、製品がリリースされて以来存在しているポリシー ベースラインです。 ChatGPT は、ユーザーが医療情報や法律情報を理解したり調査したりするのに役立ちます。 しかし、彼らは医師や弁護士のように行動して、「個々の状況に合わせた診断、治療、または法的助言」を提供することはできません。 10 月 29 日にリリースされた OpenAI の新しいポリシーには、ChatGPT の禁止された使用法がいくつか記載されています。 「適切な資格を有する専門家がいない状況で、法律や医療に関するアドバイスなど、資格を必要とする個別のアドバイスを提供すること。」 しかし、この文言は以前のポリシーとほぼ完全に一致しています。ChatGPT利用ポリシーの以前のバージョンでは、ユーザーが「他者の安全、幸福、または権利を著しく害する」可能性のある活動を行うことも禁止されていました。これには以下が含まれます。 「資格のある専門家によるレビューを受けず、AIの支援とその潜在的な限界を開示せずに、個人的な法律、医療/健康、または財務に関するアドバイスを提供すること。」 これまで、OpenAI は次の 3 つの個別のポリシー ドキュメントを管理していました。 普遍的なポリシー。 ChatGPT 固有のポリシー。 API 使用ポリシー。 この更新に続いて、同社は 3 つの文書を 1 つのポリシーに統合しました。 カラン・シンガル氏はXで次のように述べた。 「ChatGPT の動作は変更されません。 ChatGPT は専門家のアドバイスに代わるものではありませんが、今後も人々が法律や健康に関する情報を理解するのに役立つ優れたリソースであり続けるでしょう。」 — 「ChatGPTの動作に変更はありません。専門家のアドバイスに代わるものではありません。しかし、今後も人々が法律や健康に関する情報を理解する上で重要なツールであり続けるでしょう。」
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
