Topへ 検索へ

  • 15 Mar 08:13
  • @masaka gpt-4関連はここよんどけばOK https://twitter.com/shanegjp/status/1635697792395116545?s=12&t=KLGKyOYXt0b4rs7STdjjBA Original Link

  • 15 Mar 07:36
  • @masaka ナップザック問題解くコードとかも普通に書くってよすげーな 有る部分までは本当に仕事無くなるんだろな。。 Original Link

  • 15 Mar 07:33
  • @masaka あー、ブラウザで使うだけならchatgpt plusに課金すれば使えるのか Original Link

  • 15 Mar 07:21
  • gpt-4のウエイトリストに並んだ Original Link

  • 15 Mar 00:31
  • @masaka みたいな話聞くと個人でrtx4090で誰かの作ったモデル動かしてもな、、という気もしないでもないが、他にできることはないし Original Link

  • 15 Mar 00:30
  • msがchatgpt学習に使った基盤は数万台のヌビディアA100とか。。 日本のスパコンは結構柔軟に使えるやつだったと思うけど、同じことできるのかな? Original Link

  • 15 Mar 00:19
  • で、Googleがなんか出してきた Google Cloud、ジェネレーティブ AI を 開発者、企業、政府に提供 | Google Cloud 公式ブログ https://cloud.google.com/blog/ja/products/ai-machine-learning/generative-ai-for-businesses-and-governments Original Link

  • 14 Mar 22:01
  • すげーなこれ https://twitter.com/indozou/status/1635418579859546112?s=12&t=KLGKyOYXt0b4rs7STdjjBA Original Link

  • 14 Mar 21:45
  • @masaka まーでも一年で必要スペック半分くらいになりそう Original Link

  • 14 Mar 21:44
  • M1 Max メモリー64GBのMacBookProでllama.cpp7B 楽勝で動く  って言われてもな。。 Original Link

  • 14 Mar 09:40
  • 今この瞬間のスナップショットとして良いまとめ(なぜか上から 見てるソースがほぼ一緒だからそう思うだけかもだけど、最近の話を一通り網羅してる。 偉い人に説明する時、これをさらにサマリすれば良さそう あとばんくしさん転職しちゃうんだな。求人イベントとかに駆り出されまくってて、でもコードも書いてますとか言ってて、そんなの長続きしないだろと勝手に心配してました(もちろん赤の他人 データの民主化とこれからのAI組織|ばんくし|note https://note.com/vaaaaanquish/n/n228744f30bf3 Original Link

  • 14 Mar 09:11
  • 目汁が出てカチカチに固まるフェーズに移行 Original Link

  • 14 Mar 08:45
  • 一桁まであと少しw Original Link

  • 14 Mar 07:43
  • 良いまとめ 【西川和久の不定期コラム】「stable diffusion-webui」を無料のクラウド環境「Google Colab」で爆速で動かす! - PC Watch https://pc.watch.impress.co.jp/docs/column/nishikawa/1485422.html Original Link

  • 14 Mar 01:57
  • いやもう無理や https://kamiyacho.net/media/0eyzXBxDb7XcDDMixxw Original Link

  • 14 Mar 00:34
  • パナソニックコネクトのLLMはopenaiじゃなくて自前ってよ Original Link

  • 13 Mar 23:00
  • Kindle無料です 第一巻 山田全自動の福岡暮らし | 山田全自動 | 青年マンガ | Kindleストア | Amazon https://www.amazon.co.jp/dp/B0BXWL21FM Original Link

  • 13 Mar 22:45
  • 実写版ぼざろ、ではないけど。。ちょっと鳥肌たちますね もとスクールフードパニッシュメント(通称スクパニ)、La La Larksとか、結構こっちがわの人がメンバー https://twitter.com/BTR_anime/status/1635204061128704000?s=20 Original Link

  • 13 Mar 20:38
  • 山岡家w Original Link

  • 13 Mar 20:10
  • 山岡家見たけどまじかよこれ。。 Original Link

  • 13 Mar 19:45
  • docker派 VSCodeのリモートコンテナと合わせて使うのが良さげ Original Link

  • 13 Mar 18:19
  • 山岡家混んでるから半年くらい行けてない。。。 Original Link

  • 13 Mar 18:19
  • まじか。。。いや違うわ! Original Link

  • 13 Mar 17:40
  • 山岡家でも迷惑行為....sakurai? Original Link

  • 13 Mar 17:34
  • @masaka Pythonは言語としてはシンプルでいいけど、インストールが色々面倒 その遅さから外部のc++とか最近ではrustとかと連動するような形で進化してきたメリットの裏返し Original Link

  • 13 Mar 17:30
  • 定期的にでかいiPadが欲しくなる病気が再発しそう Original Link

  • 13 Mar 15:19
  • 吶喊 Original Link

  • 13 Mar 14:52
  • 自分はpyenvとanacondaが混在派  派っていうかどうやったら一本化できるのか よくわかってないからとりあえず環境変数PATHをいじって切り替えている運用 Original Link

  • 13 Mar 12:24
  • @masaka pyenvかdocker派 Original Link

  • 13 Mar 01:02
  • 新ipad airよりもipad pro 11inch第3世代の方が良さそう Original Link

  • 12 Mar 21:23
  • @masaka AIアートグランプリ、やはりというか結局松尾さんが優勝とのことで、アートという枠組みだとこのストーリーにかなうやつなんていないだろうからそうなるだろなと 1回目からいきなりハードル上がったな  もっと大喜利大会みたいなのならまた違うかもだけど Original Link

  • 12 Mar 21:16
  • 大谷さんのホームランがご本人のセールスフォース広告を直撃という話面白いけど、この広告って大谷さんの打順のときだけ出てたのかなというのが気になる Original Link

  • 12 Mar 20:33
  • 映画「クラッシャージョウ」公開40年記念上映会  とな。。。 Original Link

  • 12 Mar 20:22
  • 一週間在宅勤務したことがアイフォーンにバレている Original Link

  • 12 Mar 19:31
  • しかしpythonの環境作るのってどれが正解なのか。。 pyenv pipenv anaconda miniconda?とかいろいろ。。 Original Link

  • 12 Mar 16:58
  • オープンソースのchatgptが出てきたみたいだけど、ちらっと感じだと動かすだけでもまだ自分には難しそう Announcing OpenChatKit — TOGETHER https://www.together.xyz/blog/openchatkit Original Link

  • 12 Mar 16:57
  • というわけで次はこの手のやつをいろいろためそうかな やっぱLangChainでいろいろ組み立てるのが一番面白そう。(この記事自体はLangChainベースじゃないけど) ChatGPT APIと検索APIを使ってBingGPTに似たシステムを作ってみる - Qiita https://qiita.com/sakasegawa/items/f52bd94549c59f1ebaf4 Original Link

  • 12 Mar 16:39
  • 亡くなられた妻の歌声や画像を生成AIで作ってる話、完全にアートの文脈というか、、、アートにおけるバックグラウントストーリーの重要性みたいな文脈で誰か語って Original Link

  • 12 Mar 12:05
  • ハギングフェースにだれかがUPしてくれているファイルを使って動いた〜 がGPUがあんまり動いていない このcolabに ↓ ■LLaMA.ipynb - Colaboratory ▽https://colab.research.google.com/drive/1VDp2mCkgO7R1kM39oB25iQTky1i6jtzo#scrollTo=OBVyGcfDqznE URLが書いてある。 ↓ nyanko7 (Nyanko) https://huggingface.co/nyanko7 ↑ここからだと一回でダウンロードできる(ipfsだと途中でタイムアウトしてしまいリトライしていた 多分ノード追加してローカルにBitTorrent的に持ってくるところからやらないといけないんだとおもう) https://kamiyacho.net/media/uq-nnHhuv8CBjER5ti8 Original Link

  • 12 Mar 08:32
  • @masaka M1はユニファイドメモリ(GPUとCPUでメモリが共有)でかつ非常に高速なので、rtx4090とかよりもむしろ有利なのでは、、ということにみなさん気づき始めた感じ 中古のmac studio買った人とかも現れた Original Link

  • 11 Mar 23:45
  • まーでもこのLarge、ちょっと遅いくらいで、わりと普通に使えるレベルなんじゃ?こんなのがオープンソースでローカルで動かせるとは驚異的 まあGPUは必要なんだけど(AMIVOICEとかHMCOMMとかはCPUで動かすよね) Original Link

  • 11 Mar 23:37
  • Mediumのモデルだとスピードはまあまあだけど、使い物にならん ↓ 動きスパをういじろうと思いますが、M1では動かず。 材が作ったC+版というのがMをしているようだ そこでシェアーを パイソンから呼び出すということをやる やたらと「ご視聴ありがとうございました」って入ってくるんだけどこれなにかへんなデータで学習しちゃってないです??w Original Link

  • 11 Mar 23:36
  • というわけでwhisperをいじろうとおもうが現状だとM1では動かず、どこかの天才が作ったC++版ってのがM1対応しているようだ そこでSO(SharedObjectですね)を作ってPythonから呼び出すということをやっているのがこの記事。 とりあえず少し動かしてみたが ↑ の内容をそのまま音声認識させてみるとこうなる。Largeモデルの場合。M1のMBAだと結構遅い ↓ というわけでウィスパーをいじろうと思う他の天才が作ったC++版ってことで M1対応しているようで、Pythonから呼び出します。 ■PythonからWhisper.cppを呼び出す ▽https://zenn.dev/k41531/articles/ab1b42c044117b Original Link

  • 11 Mar 23:25
  • んーダウンロードした13GBのファイルが壊れているようでうまく動かない。。fileコマンドだとZIPと認識されているがpytorchなんたらコマンドで読み込みで失敗する というわけで正式にMETAから落とせるようになるのを待ちます 5日くらい審査にかかるらしい Original Link

  • 11 Mar 20:37
  • 自宅ネットワークだと遅くて厳しかったので一旦会社で落として自宅に移動 会社から13GBを自宅に移動させるのにVPN経由で1時間。。 Original Link

  • 11 Mar 18:25
  • とりあえずipfs(bittorrentらしい)で一番小さい7GBのファイルをダウンロード中。。220GB全部落とさなくても良さそう。 Running LLaMA 7B on a 64GB M2 MacBook Pro with llama.cpp | Simon Willison’s TILs https://til.simonwillison.net/llms/llama-7b-m2 Original Link

  • 11 Mar 15:06
  • さっきのお店で後ろのテーブルに私サバサバしてますからの人が居たらしい Original Link

  • 11 Mar 12:36
  • 家の中でもマスクをつけていると大分楽なことに気づいた Original Link

  • 11 Mar 08:31
  • @masaka 自己レス > 3 松尾先生が言ってる、数百億かけて作れというのはどの部分で、何ができるの?(でかいファイルだと思うけどそれはどんなフォーマットで、どうやって使うの?共通のインターフェースが有るの?)ついでに言うと、ファインチューニングってのはそのファイルに書き込む感じ? これがつまりLLM。なのでこの辺り知りたければオープンソース化されているコードを読む、が今やるべきことかな 小さめのllamaを手元で動かすときに、動いてるソースを全部読めば良さそう。 Original Link

  • 11 Mar 08:19
  • @masaka まあもうちょっと言うと(長い)、プロンプトというのはここに書いてあるような文字数で言うと4000文字くらいの、ベース情報で、人力でそれを書くと言うよりはそれをうまく選ぶ(キーワードを渡してchatgpt側で選択させるわけだが、そのキーワードの選び方や条件設定)および、指示の出し方(こんなフォーマットで、これくらいの粒度で、例えばこんな感じ)とのセット、かな 人間相手の指示出しとそんなに違いはないという感じか。。 自分のはてなブログをChat GPTにつないだ - hitode909の日記 https://blog.sushi.money/entry/2023/03/10/190000 Original Link

  • 11 Mar 08:13
  • @masaka つまりchatgpt以後、でコマンドラインネイティブ世代、みたいなのが出てくるということかな 過去歴史を振り返ると、世代別に、マジで?ってことが起きてきた インターネット世代  2chのスレッドidを暗記する中学生 ケータイ世代 ケータイで買い物する Google世代 検索キーワードを組み立てるのが上手 スマホ世代 家にパソコンないです、という新卒応募者 chatgpt世代 コマンドライン組立(プロンプトエンジニアリングと言われてるやつね)が上手い Original Link

  • 11 Mar 08:07
  • @masaka あとこれ自分メモですが、chatgptはコマンドライン回帰ということかなと思う で、英語話者と日本語話者ではコマンドラインに対する感覚に違いがある(私見)のが色々あとで効いてくるのでは なんというか、英語ネイティブの人がコマンドラインやプログラミングコード書いてる時の脳の動きがちょっと違うように思うんだよね 日本語プログラミング言語で日本人がコード書く時の脳の動きを想像してみてください あるいは、変数名やメソッド名を日本語でプログラミングするところ Original Link

  • 11 Mar 07:58
  • @masaka chatgpt、雑な理解としては報酬系とセットで自動的に(超大量に)強化学習させつつ人間が指導する、であってるかな 自分がまだよくわからないのは 1 内部的にも日本語なの?翻訳してるの?トレーニングを日本語でしてるの?(してるとは思えないが) 2 今はテキスト処理だけが対象、で合ってる?(gpt-4で画像とかも処理できるようになるっていってるのはどういうこと?? 3 松尾先生が言ってる、数百億かけて作れというのはどの部分で、何ができるの?(でかいファイルだと思うけどそれはどんなフォーマットで、どうやって使うの?共通のインターフェースが有るの?)ついでに言うと、ファインチューニングってのはそのファイルに書き込む感じ? Original Link

  • 11 Mar 01:32
  • BPにとって天国みたいな会社は社員にとって地獄 Original Link

  • 11 Mar 01:13
  • 未経験にちょっと技術っぽい毛が生えた感じの人を外注さんとして75万で雇って、数年経って育ち始めたあたりで撤収させられ、次の新人にちょっと毛が生えたくらいの人がやってきてイチからお勉強しなおし、みたいな無限ループ問題はなんとかならんのか  という話を社内BP面談スレに書き込んだ Original Link

  • 11 Mar 01:05
  • 米国並みにジョブ定義して細かく職種を設定すれば勤務時間短くなりそうですが、そもそも人がいない国はどうしたらいいの。 ジョブ定義下手すぎ問題はあるが. 貧乏暇なしからの脱却方法は.. Original Link

  • 11 Mar 01:00
  • このへんとかも人力アノテーションでチューニングという話。松尾先生が見切れているw https://kamiyacho.net/media/MkB-h9V-WYgUzKx5hNI Original Link

  • 11 Mar 00:59
  • 松尾研のこのへんのスライドを見返しているけど、人力アノテーションが重要っていう理解で合ってるのかな。。 https://kamiyacho.net/media/mCnVj5lYD4FlGLPOZxc Original Link

  • 11 Mar 00:58
  • そういえばfacebook広告60万円くらい使ったけど、使っただけだったな。。 Original Link

  • 11 Mar 00:45
  • LP作ってgoogle広告2週間出してみたが問い合わせには至らず。 料金体系を見せない方が、toBは問い合わせに繋がるのかもしれない Original Link

  • 10 Mar 20:56
  • ファインチューニングコストもそのうち下がるだろうから、いよいよ独自データを持ってるところが強くなっていく感じですか Original Link

  • 10 Mar 20:35
  • iPadのスクリブルか楽しくてムダにいろいろ書いてしまう Original Link

  • 10 Mar 20:32
  • ウーバー注文空振りした( PayPay残高不足 Original Link

  • 10 Mar 20:30
  • 世の中にfigma使ってない人がいないのではというくらい みんなつかっている_今日面談したひと全員つかってた. Original Link

  • 10 Mar 19:35
  • その発想はなかった ぶっちゃけコールセンターに来る問い合わせのバリエーションなんてたいしたのもではないからgptで全パターン予測可能なのでは Original Link

  • 10 Mar 19:23
  • なるほど Original Link

  • 10 Mar 16:53
  • contactlens結果ほぼ使い物にならないですが、それをgptに食わせて正しく読めるようにできるかしら Original Link

  • 10 Mar 15:05
  • 多少音声認識率が悪くても、音声ストリームを投げる処理を自前で作らなくていいのでContactLens(のテキスト化された文字列をストリームで取得するAPI)を使ったほうがいいんじゃないかなとちょっと思ってます。。AmiVoiceだと外部から取りに来てくれるからまだましだけど、COTOHAとか(whisperも?)だとECS立てて自分で送らないといけないとか、そのへん。 Original Link

  • 10 Mar 12:17
  • 祖業 Original Link

  • 10 Mar 09:19
  • @masaka まあでも自腹でRTX4090とかMac買うよりcolab pro+に月単位に五千円払うほうがこのへんやるには楽そう。(ターミナルも使える Original Link

  • 10 Mar 08:41
  • 夜中2時間客先直行直帰しただけだが、花粉のせいか熱っぽい Original Link

  • 10 Mar 08:40
  • @masaka url直接食わせられるんですね。別途コンテンツ用にwikiか何かたてて、更新あったらクロールさせる(インデックスに追記、更新)、とかやれば良さそう 同じurlの情報は追加なのか上書きなのか?とか調べないと Llama Index(GPT Index)にDevelopersIOの記事を100件読み込ませて質問してみた | DevelopersIO https://dev.classmethod.jp/articles/llama-index-developersio-articles/ Original Link

  • 10 Mar 08:28
  • これでハイエナって読むのか。。 GPTを超える大規模言語アーキテクチャ「Hyena」とは何か?:清水亮の「世界を変えるAI」(1/2 ページ) - ITmedia NEWS https://www.itmedia.co.jp/news/articles/2303/09/news086.html Original Link

  • 10 Mar 08:24
  • ばんくしさんもなやんどる エンジニアとビジネスの距離感の難しさ|ばんくし|note https://note.com/vaaaaanquish/n/n22d5e8b067d9 Original Link