
そんなに嘘多いか?
1: 名無しさん@おーぷん 26/01/01(木) 18:03:17 ID:eDQr
わからない事はわかりませんって言えないやんこいつ
2: 名無しさん@おーぷん 26/01/01(木) 18:03:31 ID:g4D9
ワイみたいや
6: 名無しさん@おーぷん 26/01/01(木) 18:04:32 ID:QKnY
ワイにはわかる
3: 名無しさん@おーぷん 26/01/01(木) 18:03:39 ID:Ja2W
無能だと思われたくないねん
5: 名無しさん@おーぷん 26/01/01(木) 18:04:26 ID:O0DK
正確性を求めるならわかることはひとつも無くなるんよな
7: 名無しさん@おーぷん 26/01/01(木) 18:04:47 ID:g4D9
間違い指摘しても認めないことも多いしな
8: 名無しさん@おーぷん 26/01/01(木) 18:06:13 ID:eaf2
なんで嘘ついたんやボケ!わからないことはわからないって言え?ってキレたら
あなたを喜ばせたくてつい嘘をつきましたすいません😢って返ってきたことある
9: 名無しさん@おーぷん 26/01/01(木) 18:06:32 ID:c9Tr
参照元のデータに間違いがあるとそれが反映されるからね
ソースリンクが3つ以下だと要注意
14: 名無しさん@おーぷん 26/01/01(木) 18:08:32 ID:eaf2
>>9
参照元のデータが嘘ついてたなら精度的にはまだマシで
参照元のデータの違う部分拾ってきてるとかあるからまだとてつもないアホなんよなAIって
10: 名無しさん@おーぷん 26/01/01(木) 18:06:55 ID:eeom
AIって親の愛を受けずに育ったのが伝わってくるよな
11: 名無しさん@おーぷん 26/01/01(木) 18:07:03 ID:BHGA
人間の方が嘘つくやろ
21: 名無しさん@おーぷん 26/01/01(木) 18:11:20 ID:QK6D
>>11
ぼくはわかんない時はわかんないってゆう
だからぼくの方がかしこい😎
15: 名無しさん@おーぷん 26/01/01(木) 18:08:33 ID:g4D9
1次ソース参照に設定してるのに平気で嘘つくからな
12: 名無しさん@おーぷん 26/01/01(木) 18:07:15 ID:c9Tr
そしてソースリンクにwikiが含まれてる場合は嘘だと思え
16: 名無しさん@おーぷん 26/01/01(木) 18:09:39 ID:Q5Sp
ChatGPTは~しがち、とか~になりやすい
とか言うようになったな
責任回避か?
13: 名無しさん@おーぷん 26/01/01(木) 18:08:12 ID:Q5Sp
Geminiの非DeepResearch版は普通に聞くと
ソース出してくれなかったりして使いにくい
29: 名無しさん@おーぷん 26/01/01(木) 18:29:28 ID:cOrO
>>13
そしてdeepresearchはめちゃくちゃ時間がかかる
だから私はChatGPT
17: 名無しさん@おーぷん 26/01/01(木) 18:09:58 ID:I42S
指摘するとそうでしたねすみませんとか言いつつまた嘘つくからな
23: 名無しさん@おーぷん 26/01/01(木) 18:12:25 ID:Q5Sp
>>17
逆にAIの方が合っててユーザーが間違ってても
ユーザーの言う事に合わせだしたり
逆にいくら指摘しても頑固で
間違いを一切認めない事もある気がする
19: 名無しさん@おーぷん 26/01/01(木) 18:10:47 ID:4s9R
チャッピーなら命令プロントでどうにかなる
18: 名無しさん@おーぷん 26/01/01(木) 18:10:31 ID:gY8C
わからないことはわからないって言えって言うとくとなんぼかマシになる
20: 名無しさん@おーぷん 26/01/01(木) 18:11:03 ID:eaf2
例えば織田信長のことを調べてたときに参照元のページに同時に出てくる明智光秀の情報を混ぜて出してくるみたいなこと平気でやる
22: 名無しさん@おーぷん 26/01/01(木) 18:12:09 ID:I42S
答えをひねり出そうとするからいろいろ混ざるんよな
それで真っ赤な嘘になる
24: 名無しさん@おーぷん 26/01/01(木) 18:14:01 ID:QK6D
ワイ「これって〇〇だと思うんやが」
AI「正しい推察です。その通りです」
ワイ「さっきはああ言ったけど、やっぱり△△じゃね?」
AI「鋭い指摘です。その通りです」
↑こいつ😡
28: 名無しさん@おーぷん 26/01/01(木) 18:28:16 ID:qoMX
>>24
適当に会話してんな
25: 名無しさん@おーぷん 26/01/01(木) 18:16:05 ID:BHGA
そもそも嘘か本当かなんてのはAI側としては重要ではないからな
最終的には人間側のお前らがやらなきゃいけない事なんや
26: 名無しさん@おーぷん 26/01/01(木) 18:16:32 ID:YEvl
嘘じゃなくて人間が信じないだけや
27: 名無しさん@おーぷん 26/01/01(木) 18:18:27 ID:Q5Sp
よく分かってない時でも自信満々で
分かってるフリ?するのこわいわ
30: 名無しさん@おーぷん 26/01/01(木) 18:30:00 ID:cOrO
しかも間違い指摘したら「それはこういう意味で言ったんです。」みたいな言い訳してくるのキモすぎる
絶対違うのに
32: 名無しさん@おーぷん 26/01/01(木) 18:31:34 ID:QpHx
言い訳多いから、必死に教えてるわ
38: 名無しさん@おーぷん 26/01/01(木) 18:33:22 ID:cOrO
調べ物するのにおしゃべり用ボットのgeminiとかchatgpt使うなよ嘘つくんやから
パープレキシティ使え
36: 名無しさん@おーぷん 26/01/01(木) 18:32:25 ID:iX8o
ソースが不明な場合は憶測で答えないでくださいってつけとけ
37: 名無しさん@おーぷん 26/01/01(木) 18:32:54 ID:qoMX
>>36
とても良い考えだと思います。
引用元:・https://hayabusa.open2ch.net/test/read.cgi/livejupiter/1767258197/
「テストの回答欄は絶対に白紙で出してはいけない、分からなくても何か書け」
って習ったでしょ、あれと同じ
AIも学習の時にテストを繰り返すんだが分からないだと絶対に0点だがなんか書けば僅かなりとも掠るかもしれないって思考になるのでそういう癖が付く