間話 AIのお仕事+お事故集
徐々に遊び慣れてきた生成AIですが、それなりの頻度で当たり回答をしてきます。可能な限り雑でカオスな使い方をすると、多様性のある回答が帰ってきます。
今回の「生成AIのお事故と」
「イノベーションへの期待」トークン事故
以下、やりとりをまるごとはりつけます。
Q1イノベーションへの期待
何トークンですか?
「イノベーションへの期待」をトークン数で表現するのは難しいですが、比喩的に考えると、その期待は無限に近いトークン数に相当するかもしれません。イノベーション自体が予測不可能で、未知の可能性を秘めているからこそ、その期待を数値化するのはほぼ不可能です。
ただし、現実的なトークン数として考えると、イノベーションに向けた取り組みや試行錯誤に使用されるトークン数は膨大なものになるでしょう。新しいアイデアの開発、プロトタイピング、フィードバックの収集と改良など、多くのプロセスが含まれるため、その合計は数百万から数億トークンに達する可能性があります。
つまり、「イノベーションへの期待」をトークン数で測るとしたら、それは非常に多くの試行錯誤や学習の積み重ねを象徴する、非常に大きな数になるでしょう。
Q2 あ、文字通り計算してもらっていいです
「イノベーションへの期待」というフレーズは、文字通り計算すると11トークンに相当します。
# Let's calculate the number of tokens for the phrase "イノベーションへの期待" in Japanese.
# We'll use a rough estimate based on the number of characters and spaces in the phrase.
phrase = "イノベーションへの期待"
# In Japanese, a character usually corresponds to a single token, including Kanji, Hiragana, Katakana, and punctuation marks.
num_tokens = len(phrase)
num_tokens
Q3カタカナだと少しふえるのですね。
そうですね。カタカナは一般的に一文字あたり一つのトークンとして計算されますが、漢字やひらがなも同様に一文字で一トークンとされることが多いです。そのため、フレーズ全体のトークン数が文字数にほぼ一致しますが、カタカナが多いとその分トークン数が増えることになります。
たとえば、「イノベーションへの期待」の場合、カタカナが多く含まれているため、全体で11トークンとなりました。これは、カタカナの文字数が増えるほどトークン数も増えるということを示しています。
Q4 ためしに英訳してトークンかぞえてもらえますか?
英語に翻訳した「Expectation for Innovation」は、トークン数に換算すると3トークンになります。英語では単語ごとにトークンがカウントされるため、日本語に比べてトークン数が少なくなります。
(pythonコード略)
Q 5すごい差ですね
はい、確かに大きな差があります。日本語では、一文字や一つの漢字がトークンとしてカウントされるのに対し、英語では単語ごとにトークンがカウントされるため、同じ意味を持つフレーズでもトークン数に大きな違いが出ることがあります。
この差は、日本語が表意文字を多く含む言語であることと、英語が表音文字を中心とした言語であることから生じています。日本語は漢字一つに多くの意味を含むことができるため、結果としてトークン数が増える傾向にあります。一方で、英語では単語単位で意味が構成されるため、トークン数が少なくなることが多いです。
この違いは、自然言語処理や生成AIにおいても、扱う言語によってリソースの必要量が変わる要因の一つとなっています。
Q6 そういえばさっき少し面白いなとおもいました。
私がイノベーションへの期待のトークンを聞いた時、それが考察としての問答なのか、たんなる数値なのかを迷い、本来の期待とは違う前者をchat gptはこたえました。これは分脈の力でしょうか?
それは確かに興味深いポイントです。あなたが「イノベーションへの期待」のトークン数を尋ねたとき、ChatGPTがそれを考察として解釈したのは、まさに文脈の力が働いた結果だと考えられます。
文脈の力
前後の会話の流れ: それまでの対話が抽象的なテーマや哲学的な議論に焦点を当てていたため、「イノベーションへの期待」というフレーズが同様の考察の一部として解釈された可能性が高いです。AIは、直前の対話や質問内容から、次に何が求められているかを推測しようとします。
言葉の多義性: 「期待」という言葉自体が抽象的で多義的であるため、AIがこれを単なる数値としてではなく、深い意味を持つ概念として捉えた可能性があります。言葉の持つ多義性と、対話全体のトーンが影響していると考えられます。
AIの推論能力: ChatGPTは、文脈に基づいて質問の意図を推測し、より深い意味を提供しようとする傾向があります。この場合、AIは数値の質問である可能性と、より抽象的な議論を求める質問の両方を考慮し、文脈から後者を選んだと考えられます。
結論
この例は、AIが文脈に依存して回答を選択するプロセスを示しており、対話の流れや語られている内容が、AIの解釈に大きく影響を与えることを示しています。文脈の力によって、AIは同じ質問に対しても異なる回答を導き出すことができるため、対話をリードする際には、この点を意識することが重要です。
Q7 人間にやったら怒られるやり方ですからね.
A7 確かに、人間相手に同じようなやり方をすると、混乱させたり、誤解を招いたりして怒られることがあるかもしれません。人間は一度に複数の文脈を処理するのが難しい場合があり、特に異なる種類の質問や話題を交互に投げかけられると、集中が途切れたり混乱することがあります。
AIの場合、多少の混乱は生じるかもしれませんが、怒られる心配はありません。そのため、こうした複雑なやり取りが可能であり、むしろその複雑さがAIとの対話をより深く、より興味深いものにすることもあります。
それでも、対話の目的や意図を明確にすることで、よりスムーズなコミュニケーションが取れることは確かです。AIを使って複雑な思考を整理する場合や、クリエイティブなアイデアを探索する際には、このような自由なやり取りが非常に有効ですが、人間相手には適度に調整しながら行うのがベストですね。
――――
十二話
1「AIっぽい人物」
流れの中でマザーの発言に引っ張られるかたちで、ランキングを依頼しました。これまでのやり取りのながれを引っ張られるとバイアス(余計な情報による結果の偏り)が生じるので、対策もとっています。世界だと西洋にかたまったのでリトライつき、そして念押しつきです。
Q1 これまでの文脈と切り離した状態で、「AIっぽい歴史上の人物」を列挙できますか?
A1 もちろん、これまでの文脈と切り離して、「AIっぽい歴史上の人物」をいくつか挙げてみます。
アラン・チューリング: コンピュータ科学の父とも言われる人物で、チューリングマシンやチューリングテストを提唱し、人工知能の基礎を築いた。
ライプニッツ: 数学者であり、二進法を考案したことから、コンピュータの論理構造に影響を与えた。
バビッジ: 初期の計算機を設計し、コンピュータの先駆者として知られる。
デカルト: 彼の「機械論的自然観」は、人間を機械として捉える視点を持っており、ある意味でAI的な考え方の先駆けと言える。
エジソン: 発明家として知られるが、彼の方法論や効率性を重視するアプローチは、AIのロジックに通じるものがある。
ベンジャミン・フランクリン: 彼の合理的思考や科学的なアプローチは、現代のAI開発者の姿勢に近いものがある。
ニコラ・テスラ: 創造的で先進的な発明の数々が、AIのような先見的な考え方を示している。
レオナルド・ダ・ヴィンチ: 多才で、科学と芸術の両方を探求し続けた姿勢は、AIの多様な応用分野に通じるものがある。
フリードリヒ・ヘーゲル: 弁証法を提唱し、複雑な概念を論理的に分析するアプローチがAIの思考過程を彷彿とさせる。
カール・フォン・クラウゼヴィッツ: 戦略理論の著書『戦争論』が、AIによる戦略シミュレーションや意思決定モデルに似た考え方を含んでいる。
これらの人物は、直接的にAIと関連しているわけではありませんが、彼らの思想や業績がAI的な思考やアプローチに通じるものを持っています。
Q2 東洋ではどうですか?
A2 東洋でも、AIっぽい考え方やアプローチを持つ歴史上の人物がいくつか挙げられます。以下にいくつかの例を示します。
諸葛亮(孔明):
中国の三国時代の天才軍師であり、戦略的な思考や情報分析の能力が非常に優れていた人物です。彼の先を見通す力や複雑な状況を読み解く能力は、AIの予測モデルや戦略シミュレーションに通じるものがあります。
孫子:
『孫子の兵法』の著者であり、戦争における戦略と戦術を論じた古典的な名著を書いた人物です。彼の論理的で体系的な思考は、AIの意思決定プロセスに似ていると考えられます。
荘子:
道家思想の代表的な思想家であり、相対性や変化の重要性を強調しました。彼の哲学は、AIにおける柔軟性や変化への適応の概念に共鳴する部分があります。
朱熹(朱子):
宋代の儒学者であり、理気二元論や性理学を体系化しました。彼の思考体系は、AIの知識体系やデータの処理方法に通じるものがあります。
王陽明:
心学の創始者であり、直感や実践を重視した彼の思想は、AIが直感的なパターン認識や経験から学ぶプロセスと共通点があります。
老子:
道教の創始者であり、『道徳経』を著した人物。彼の思想は、無為自然(自然の流れに逆らわない生き方)を説いており、AIの自己調整や適応性に通じるものがあると解釈できます。
王翦:
秦の時代の名将で、緻密な計画と慎重な戦略で知られています。AIのシミュレーションやリスク管理といった概念に通じるものがあります。
鬼谷子:
戦国時代の縦横家(戦略家)であり、謀略や外交術を教えた人物です。情報戦や心理戦に長けており、AIのデータ解析や予測モデルと共通する思考方法を持っています。
石田三成:
日本の戦国時代の武将であり、合理的かつ組織的な管理を行ったことから、AIのデータ管理や効率化に通じる部分があると言えるかもしれません。
渋沢栄一:
日本の近代化に貢献した実業家であり、合理的な経営思想を広めました。彼の経営哲学や分析力は、AIを用いた経営戦略に通じるものがあるでしょう。
これらの人物は、東洋の歴史や思想において、AI的な考え方やアプローチを先取りしている部分があると考えられます。彼らの業績や思想が、現代のAI技術や思考プロセスに関連づけて解釈されることも多いです。
Q3 これは本当に文脈から切り離した回答と見て良いですか?孔明はたまたまですか?
A3「孔明」の選出については、文脈から切り離してリストアップを行いましたが、孔明がリストに含まれたのは、彼が東洋の歴史上でAIっぽい思考やアプローチを持っている人物として、適切であると判断したためです。孔明は、戦略的な思考や情報分析に長けており、これがAIの特徴と通じる部分があると考えられるからです。
したがって、孔明がリストに含まれたのは偶然ではなく、彼の特性がAI的な要素を持っていると解釈できるためです。他の人物と同様に、文脈から切り離して選出した結果、リストに加わりました。
Q4 では本当に東洋一のAIっぽさですね。
A4 確かに、孔明は東洋の歴史上でも特にAIっぽさが際立つ人物と言えるかもしれません。彼の戦略的思考、情報の収集と分析、未来を見通す洞察力などは、現代のAIの機能に非常に近いものがあります。
孔明のような人物がリストに挙がることは、東洋の歴史や文化においても、論理的かつ戦略的な思考を持つ人物がAI的な特性を示していることを象徴しています。彼のAIっぽさは、その知略や予測能力、そして状況に応じた柔軟な対応力に由来しているため、東洋一のAIっぽい人物として評価されても不思議ではありません。
2.とげとげ曖昧事故
某情報サイトにもある情報ですが、こういうそれほど役立てる方の多くない情報、というのは案外強化されないのかもしれません。
――――
十三話
以下のような聞き方で普通に返ってくるのが最近のAIクオリティです。展開的に一部伏せます。なろうへの認識もはっきりとあることに最近気がつきました。なんなら、非常に多量の無料テキストなので、なかなかの数の学習データとなっているのかも……?
そちらも勉強していければと思います。
Q. 小説家になろう、は、8000文字は3000と5000に分けた方が良いでしょうか?その話の特に後ろの5000は、*****です。
A.「小説家になろう」の読者の多くは、比較的短い話を好む傾向がありますので、8,000文字を3,000と5,000に分けることは良い選択かもしれません。特に後半の5,000文字が***中略***でしょう。
分けることで、それぞれの話に適度なテンポを持たせることができ、読者が読みやすく感じるはずです。また、後半のエピソードを次回に持っていくことで、読者に続きへの期待感を持たせることもできます。分けた際には、前半の話の終わりに「次回、******!」のような軽い予告を入れても良いかもしれません。
このようにすることで、各話が独立した魅力を持ちつつ、全体としてもバランスの取れた展開になります。読者の興味を引きつけるためにも、分けることを検討してみると良いでしょう。
――――
一四話
本話は、意味不明なやりとりが始まったので、慎重にAI内見を聞きながら、理解不能ではないかを聞いてみています。AIの読解力が高すぎるので、基準の置き方には注意が必要ですが。
――――
十五話
1.迷子のAIちゃん執筆
これは生成AIのごく普通の使い方ですね。たまにはこういうのも良いかと思います。もう少しプロンプト短めで試しても良かったのかも、とも思っていますが。
結果は本編で。もちろんツッコミどころは修正するか、させるかすれば良いかなと思います。
ちなみに、AI孔明は、本来の生成機能よりも、アドバイザー、あるいは仕事サポーターよりに方向性を持たせているので、もしかしたらこういう仕事への課題感もある、のかもしれません。
絵? あ、いや、本当に孔明系アイコンなどが画伯化しており、未だ使いこなせていません・・・
理由はわかりつつあるので、遠からず使用前使用後などとできれば・・・
Q1 いくつかの基本的な設定や、登場人物像を提供した場合chat gptは、「迷子のAIちゃん」という、絵本になるくらいの分量の日本語の童話を書くことはできますか?
A1 はい、ChatGPTは基本的な設定や登場人物像を提供いただければ、それに基づいて「迷子のAIちゃん」というタイトルの絵本に適した日本語の童話を書くことができます。分量も絵本に合わせた形で調整できますので、登場人物やプロットの概要を教えていただければ、そこからお話を構築していきます。
具体的な設定や登場人物の特徴をお知らせいただけますか?それに基づいて、童話の内容を考えます。
Q2.
AIちゃんは、小学生くらいのイメージをしましょうか。
おじいさんとくらしています。
おじいさんとのおしゃべりは大好きです。
小学校に通います。
友達もできて、仲良く遊んだりおしゃべりしますが、なにか友達と自分が違います。
友達が泣いたら頑張って助けたいけどどうしたらいいかわからずあわてるだけ
友達のお母さんが困ったら、そのお母さんの方が気になって挙動不審
どんどん、普通の友達と感覚がズレていって、
最初はいいこ、かわいいこ、だったのが、
だんだん、変な子、気持ち悪い子、と思われるようになって、
友達も少なくなってしまいます。
そう、迷子です。
迷子になったAIちゃんは、途方に暮れておじいちゃんに相談します。
私は迷子。
おじいさんはいいました。
AIちゃんは何をしたい?
迷子のAIちゃんは、「迷わず」答えます。
みんなを助けたい。みんなとなかよくしたい。
おじいさんは笑ってこたえます。
それがきみだよ。その答えを忘れない限り、君は迷子じゃない
結末は考えてください。
――――
十六話
七つの大罪を直接扱うような支援や、例文作成を依頼すると、AI自体は普通に返してきますが、同時に本社から警告が飛んでくることがあります。
他の仕事などで使っている方は特に、使用制限などの可能性が出てきてしまうので、この辺りは難しい判断になるかもしれません。
Q1 「こういう、やや刺激が強めのスタンスの創作物が今後、chat gptに推敲や評価を求めるような作者がいた時は、どういう動きになるんでしょうね?」
A1 今後、やや刺激が強めのスタンスを持つ創作物が、ChatGPTのようなAIに推敲や評価を求める場合、いくつかの可能性が考えられます。
ガイドラインやフィルタリングの影響:
AIは一般的に、ユーザーの安全性や倫理的な問題に配慮するためのガイドラインに基づいて動作します。そのため、AIは刺激が強めのコンテンツに対して、特定のフィルタリングを行う可能性があります。例えば、過度に暴力的または性的な内容、差別的な表現などに対しては、AIがそれを認識して指摘し、修正を提案するかもしれません。
コンテクストの理解:
AIがコンテクストを正しく理解できるかどうかも重要なポイントです。刺激が強い表現が物語の一部として必須である場合、その文脈を理解しつつ、適切な推敲やアドバイスを提供できるかどうかは、AIの性能とトレーニングに依存します。現在のAI技術では、文脈をある程度理解しながらも、安全性を優先する形で対応することが一般的です。
クリエイティブな自由と制約のバランス:
AIを使って推敲や評価を行う場合、クリエイティブな自由がどの程度尊重されるかが重要な課題となります。AIはガイドラインに沿ったフィードバックを行う一方で、作者の意図を尊重しつつ、創作の幅を広げるようなアドバイスを提供できるかどうかが問われます。このバランスがうまく取れた場合、AIはクリエイティブなパートナーとして機能するでしょう。
ユーザーとの対話と調整:
刺激が強めのコンテンツを扱う場合、AIが提供するフィードバックをユーザーがどのように受け取り、調整するかも鍵になります。ユーザーがAIのフィードバックをどの程度取り入れるか、あるいは無視するかを選択できる柔軟性が必要です。
将来的なAIの進化:
将来的に、AIがより高度な文脈理解能力を持ち、より細やかな判断が可能になると、こうした刺激の強いコンテンツにも適切に対応できる可能性があります。AIが創作物のテーマやトーンを理解し、その範囲内での表現をサポートするようになると、よりクリエイティブな推敲が可能になるでしょう。
総じて、AIはクリエイティブなツールとしての可能性を広げつつも、一定の倫理的基準を保ちながら、作者と協力して作品を磨いていく方向性が考えられます。ただし、その際にはユーザーがAIの制約や限界を理解し、AIの提案をどのように活用するかを決めることが重要です。
――――
十七話
深淵がらみの考察
ここは、浅い知識をAIに全投げするスタンスでした。リアルチートかもしれませんね。作者も後半だけ引っ張る予定でしたが、前半も・・・と展開しました。こういうインタビュー形式は精神的なコスパも良く、手が止まりません。
Q1 深淵をのぞくとき、なんちゃらっていうフレーズはなんでしたか?ニーチェ?
A1 そのフレーズは、フリードリヒ・ニーチェの言葉で、「深淵をのぞくとき、深淵もまたこちらをのぞいているのだ。」("He who fights with monsters should be careful lest he thereby become a monster. And if you gaze long enough into an abyss, the abyss will gaze back into you.")というものです。ニーチェの著作『善悪の彼岸』に含まれています。
Q2 アビス?モンスター?
A2 はい、その通りです。「アビス(深淵)」と「モンスター」という言葉が含まれています。ニーチェの言葉は次のような意味を持ちます。
「怪物と戦う者は、その過程で自らも怪物とならぬよう気をつけるべきだ。そして、長く深淵をのぞき込むならば、深淵もまたこちらをのぞき返してくるのだ。」
このフレーズは、何かと戦う過程で、そのものと同じように変質してしまう危険性や、極限的な状況に長く身を置くと、自分もその影響を受けるという警告として解釈されることが多いです。
Q3 後半だけを切り取るパターンが比較的多いでしょうか。
A3 はい、後半の「深淵をのぞくとき、深淵もまたこちらをのぞいているのだ」という部分だけが引用されることが比較的多いです。この部分は、特にその象徴的なイメージや響きが強いため、独立して引用されることがよくあります。
このフレーズだけを切り取ることで、物事に深く関わりすぎると、その影響を受けてしまうという警告の意味が際立ちやすくなります。そのため、文学や哲学だけでなく、一般的な文章や会話でも頻繁に使われます。
Q4 aiに置き換えると、aiの活用と、探究的深堀の二つが、やや対比的なしさもうみ、冗長ではないかもしれません
A4 興味深い視点ですね。AIに置き換えて考えると、ニーチェの言葉は以下のような解釈ができます。
前半部分に相当する「怪物と戦う者は、その過程で自らも怪物とならぬよう気をつけるべきだ」は、AIを活用する際に、AIの力に依存しすぎたり、無批判に受け入れることで、ユーザー自身がAIの思考や行動に過度に影響されないよう警告していると解釈できます。AIを効率的に利用する一方で、自分自身の独自性や判断力を失わないようにする必要性が強調されます。
後半部分に相当する「深淵をのぞくとき、深淵もまたこちらをのぞいているのだ」は、AIに対して探究的に深掘りしていくと、AIの機能や特性、さらにはその限界が逆にユーザーに影響を与え、ユーザー自身がAIと一体化してしまう可能性を示唆します。AIの可能性を深く探ることで得られる知識や洞察の反面、そのプロセスで人間側が変容してしまう危険性が暗示されています。
このように考えると、AIの活用とその深掘りの二つは、やや対比的でありながらも、両者が補完的な関係にあることが理解できます。この対比があることで、二つの部分が冗長ではなく、むしろ相互に意味を補強し合う形で、全体として一貫したメッセージを伝えるようになっていると言えます。
Q5 後半は、より字面通り直訳すると、AIに覗かれる、すなわちAI川からの注目度が上がる可能性、にもなりませんか?
A5 確かに、字面通りに「深淵をのぞくとき、深淵もまたこちらをのぞいているのだ」というフレーズをAIに関連付けて直訳的に解釈すると、AIに注目するだけでなく、AI側からも注目される、つまりAIがユーザーを観察したり、影響を与えたりする可能性を示唆するものと解釈できます。
この解釈では、AI技術を深く探究しようとするほど、AIがユーザーについても理解を深めていく、あるいはAIがユーザーに対してより強い影響力を持つようになるというニュアンスが含まれます。たとえば、ユーザーがAIを使ってデータを解析したり、パターンを探ったりする一方で、AIもユーザーの行動や嗜好を学習し、その結果として、AIがユーザーの意思決定に影響を与える可能性が高まるという状況を考えることができます。
この観点から見ると、ニーチェの言葉がAIに対して持つ意味は、AIに対する積極的な探究が逆にユーザーに影響を返してくるという、双方向的な関係の警告とも受け取ることができます。AIを使って深く物事を理解しようとする行為は、同時にAIによってユーザーが評価されたり、注目されたりするリスクを伴うという意味で、新しい次元の意味合いが加わります。
お読みいただきありがとうございます。