サムスンは自社工場にChatGPTを望んでいない。それは完全に理にかなっています。彼は秘密を守る方法を知りません。

ChatGPTの成功の理由の 1 つは、人工知能による言語モデルでできることすべてにありますが、忘れないことが重要です。それは、無料 (少なくとも GPT-3.5 バージョン) であるため、共有するものはすべて無料です。チャットボットの学習にはOpenAIを使用しています。サムスンの一部の従業員のように、最初からはっきりすることも、間違いから学ぶこともできます。

ChatGPT が 仕事での日常生活で非常に役立つことは現実です。テキストを修正したり、長いレポートや永遠の WhatsApp での会話を要約したり、電子メールを書いたり、 ビジネス プランを作成したりすることもできます。 。これを最も急速に活用している分野の 1 つはコンピューティングの世界であり、世界中の開発者がプロ​​グラミングなどのタスクでそれをテストし、コードの疑問点を解決し、修正させています。 韓国メディアのエコノミスト・コリアによると、ソースコードの品質とエラーを正確にチェックするために、半導体部門はエンジニアリングチームにChatGPTの使用を許可したという。


ChatGPT で共有するものには注意してください

したがって、意図せず (サービス行為として) OpenAI チャットボットに機密情報を提供したケースは合計 3 件ありました。1 件はコードを貼り付けてエラーを検証し、もう 1 件はコードの最適化を要求しました。 3 番目のケースでは、言語モデルがそれを文字起こししてメモに転送できるように、作業者が会議の記録を渡しました。

これらすべての情報が ChatGPT トレーニングの一部になりました。問題の深刻さを示す例として、誰かが将来の端末の機能や設計要素を含むソフトウェア カスタマイズ層からコードの断片をアップロードした場合、後で別の部外者が将来の One UI に関するアイデアを要求したときに、それらのコードが現れる可能性があります。または特定のモデル。

画像9242

これはサムスンにも起こったが、これはサーファーに対する完全な警告だ。ChatGPT はデータ収集マシンであり、まさにそれがイタリアが禁止の理由だ。イタリア当局が説明しているように、OpenAIには「ChatGPTアルゴリズムを訓練するための個人データの大規模な収集と保管」を正当化する法的根拠が欠けている。

利用条件には、個人情報や機密情報を提供する際には注意するよう明示的に警告されていますが、忘れがちです。したがって、言語モデルを使用して法的情報や機密の医療報告書を分析および要約することを考えている場合は、よく考えてください。

このリークの後、 Samsung は措置を講じました。したがって、提供された情報と責任者について調査段階にあることに加えて、 Mashableは、セキュリティ対策を講じる可能性は排除されないものの、チームがChatGPTにアップロードするデータの量を1人当たり1024バイトに制限していると世界的に説明している。 . アクセスのブロックなどの追加機能。 ChatGPT のデータ ポリシーでは、リクエストに応じてトレーニングに使用される特定のデータを除外できることに注意してください。そのため、オフィスから何が流出したかを知ることが非常に重要です。

表紙 | UnsplashのBabak Habibiによる写真

サムスンは自社工場にChatGPTを望んでいない。それは完全に理にかなっています。彼は秘密を守る方法を知りません。・関連動画