2024年2月8日(木) 22:00-23:00
CDLE名古屋主催のオンライン勉強会「ChatGPT Night vol.3」が開催されました!
遅い時間にも関わらず、最終的に50名以上の方に最後までご視聴いただきました。
大変多くの方にご参加いただきました。ありがとうございました!
今回のChatGPT Nightは下記のライトニングトークの2部とフリートークの3部構成となりました。
【GPTsについて】 CDLE名古屋 Toriさん
(発表の内容)
・GPTsとは何か?
・対話形式でGPTを作る
・GPTが生成した画像の保存場所
・GPTs × Python
・メンション機能(複数のGPTsを組み合わせて使う)
<徳和感想>
GPTが作成した画像やアップロードしたファイルがどこに保存されているのか?
…について、保存場所が分かるという発想がなかったので目から鱗でした!
これを知っていると、ChatGPTの出力結果を特定のファイル名で保持しておき、それをずっと後の会話から参照することも出来そうなので、行えることの幅がかなり広がりそうです。
最新のサービスである「メンション機能」についても紹介されており、素晴らしい内容でした!
【生成AI浸透のヒント】 生成AI-EXPO in犬山 代表 田中さん
(発表の内容)
・生成AIを組織導入するためのノウハウ
・半径5mの人を巻き込む
・相手に興味を持たせるトーク
・1分間で全てを話す準備
・安心感を与える重要性
<徳和感想>
生成AIの組織導入という、皆さんが非常に興味のある内容でした!
内容は実際に企業様に有料で話している内容がベースとなっているため、素晴らしい内容であるのは間違いないです。
私としては冒頭の自己紹介もそうですが、田中さんの生き方自体に非常に興味を持ちました。
特に「田中さんのシェア」は必見です!
<田中さんのシェア>
① 行動をためらうほど、時代に取り残されていく
② 都合の良いことは自分が起こす。行動しないと都合の悪いことが起きていくだけ。
③ やりすぎぐらいがちょうどいい。いつか、未来の自分を助けてくれる。
フリートーク
人数が多くなってきてフリートークが少し行いづらくなってきていると感じました。
多くの方とコミュニケーションをとれる場所としたかったのですが、今の状況だと厳しそうですね。このあたりは、なにかしら対策が必要かもしれません。
アーカイブ動画
振り返りの動画はこちらになります。
ChatGPTなどのサービスに企業情報を入力しても良いのか?という話について
少し長くなりますので、最後に書かせていただきますね。
ChatGPTに機密情報を入力の話がありましたが…即興だとつい言葉足らずになってしまった感があります。
まず質問した方の前提が「機密情報を扱うためにはローカルのLLMが必要」という話だったため、私としては、ローカルのLLMを扱うレベルの完全社外秘の極秘情報を生成AIで扱わなくてはならないケースがあるのか?という頭になってしまったというのがあります。改めて調べてみると機密情報という言葉の定義は曖昧で、人それぞれ認識が違う可能性のあるものでした。質問された方が後にIT企業におけるプログラムなど…という具体例が出てきて「そもそもの前提から私の考えと異なっていたのかな?」とようやく認識できました。
そうであれば、「機密情報ってどのような情報ですか?」と、もう少し具体例を聞いてから話をするべきだったかな…というのが反省点です。
宮野さんに機密情報に関して「企業情報」のように言い換えていただきましたので、その前提で私なりの見解を書かせていただきますね。
生成AIに関しては、なぜか「危ない」というイメージが先行してしまっている気がします。そのなかでも最も危ないと思われているのが「情報漏洩」であると感じます。それについて話したいと思います。
利便性を抜きにして完璧な理想として考えると…企業が扱う情報は基本的に全て社外…例えばインターネットなどから切り離して管理するべきでしょう。それは生成AIの利用に限らずです。しかし、この情報化社会において、程度の差があるにしても、情報全てを外部からのアクセス(人を含む)から完全に遮断させることは不可能です。
それを踏まえて、情報の扱いを3つに分類してみました。
(1) 社外に漏れたらニュースレベルで問題になる情報
【例】
個人情報(家族構成や給与とか犯罪歴など)
クレジットカード情報、個人の売買履歴
パスワード類
商取引で漏洩すると非常に不利益になる情報
(2) 社外に公開出来ない情報
【例】
会議議事録や会議の録画
プログラムや設計書
提案書や企画書
客先とのメールのやりとり
(3) 社外に公開されても問題ない情報
【例】
一般的なノウハウ・技術などの情報
一般的な研修などの資料
外部に公開するイベント告知
挨拶文などのテンプレート
ざっと、こんな感じです。
まず、(3)からいきましょう。(3)の情報は、本当に問題がないと言えるものであれば、生成AIに限らず基本的に自由に扱っても良いと思います。
しかし、こういった情報を仕事でどれだけ扱うのか?という話になると…殆どの企業の場合、多くは扱いません。仕事に直結しないのであれば、頑張って使えるようにしてもメリットがないので…積極的に生成AIを使って行こう!とはならないでしょう。
ですので、本題は(1)と(2)になると思います。
(1)については、セキュリティ的に安全と言われていても、生成AIを含むあらゆるインターネットサービスを利用するべきではないと思います。
理想を言えば、インターネットに繋がるPCでは暗号化して保持するべきであり、可能であれば…インターネットに繋がらない場所に保管されるべきです。当然、PCに入れて社外に持ち出すのは厳禁となります。これらの情報を扱える人間は、情報セキュリティの知識をしっかり持った信頼のおける少人数であるべきです。
この情報に対してAIを使うのであれば、ローカルのLLMを使うか、利用する前に情報の加工が必要になるかと思います。
(2)が恐らく最も生成AIが生きるカテゴリーになります。この情報に対して正しい知識を持たずに「生成AIは情報漏洩のリスクがある」という事ばかり心配していては…中小企業などであれば、他社に遅れを取るという大きなリスクとなる可能性が高いです。どんなに努力しても情報漏洩のリスクは0にはなりません…というより、知らないうちに生成AI以上の情報漏洩のリスクが高い事をしている可能性すらあります。
例えば仕事でこんなことしていませんか?
「客先に暗号化したzipファイルをメールで送り、そのパスワードを別メールで送る」
…です。これ、実は、昨今の生成AIより情報漏洩のリスクが高いのです。ppapと呼ばれるもので、政府でも禁止されています。
このような仕組みを利用しているのに…
「生成AIは情報漏洩が怖いから使えない」
…なんて言ってしまうのは…理屈に合わないですよね?
他にもGoogle検索やGoogle翻訳なんかはGoogleが裏でデータを保存していると思いますので、もし海外からのメールをそこに入力しているようなら…生成AIより、まずそちらの方を気にした方が良いです。
昨今の生成AIの進化は早く、1年前とは異なり、情報漏洩をしない仕組みも多くのサービスに組み込まれています。
私が以前のChatGPT NightのLT発表時に書いた記事があります。
少し古い資料ですので料金体制やサービス内容が変わっていますが…まだまだ、情報漏洩やセキュリティを考える上の目安として参考になるかと思いますので、読んでいただければと思います。
たとえば、この資料のBing Chat Entetprise…現在だと企業向けのCopilotになるかと思いますが…セキュリティの観点からすると非常に強固であると感じます。
Office製品などと一緒に利用出来るCopilot Proにつきましては、@Happy88 さんがまとめておりますので、ぜひ参考にしてみて下さい。
私の考えとしての目安としては、同じマイクロソフトの製品の…
「teamsのチャットやオンライン会議レベルのセキュリティは担保される」
…という、イメージで考えていただければと思います。
teamsって、企業情報入れてますよね?じゃなきゃ仕事になりませんので…
有料のマイクロソフトのサービスであれば、それと同じ感覚で利用出来ると考えてください。それと、同じぐらいと考えると…かなり、使っていけそうな気がしませんか?
ローカルのLLMの話が出ましたが…億単位のお金をかければ分かりませんが…汎用的な使い方ではBing ChatやAzure OpenAIなんかと比べると圧倒的に性能が劣ると感じます。大企業ならともかく、中小企業が「情報漏洩が怖いからローカルのLLMを使おう」というのは今の段階ではオススメしませんし、余程優秀な技術者がいないと成功しないと思います。
私は生成AIの普及を願っております。
リスクとメリットをきちんと把握したうえで、どのようなサービスがあり、どのような業務に生かせるかを一緒に考えていきましょう!
そして、生成AIを活用して、みなで幸せになりましょう!