推しアイデア
人間の会話機能を拡張し、相手の裏にある感情や目的を可視化する。 他人との会話を円滑に進める。
―
人間の会話機能を拡張し、相手の裏にある感情や目的を可視化する。 他人との会話を円滑に進める。
日々の会話に新たな情報が欲しいと感じたため。 相手の発言の意図や感情の変化に気づくには生身の人間には限界があります。そこをAIによって分析してもらうことで些細な変化を見逃さず会話が円滑に進むと思ったから。
DeepFace + FastAPI によるリアルタイム感情分析
人と会話するときに受け取れきれなかった相手の微細な変化をアプリ分析し、会話の補助してくれる。些細な表情や声色の変化、喋った内容から相手がどういう感情と意図でそれを発言したのかを教えてくれるアプリ
フロントエンド:React + Vite(TypeScript) バックエンド:FastAPI(Python) ライブラリ/外部API 【表情認識】 DeepFace:静止画から表情(怒り/嫌悪 /恐れ /喜び/悲しい/驚き/無表情)を推定。 【ジェスチャー】 MediaPipe Tasks (GestureRecognizer):手のジェスチャーをリアルタイム検出 【目的・意図の推定】 Gemini API(1.5 Flash):感情>ジェスチャー>テキストの優先度で総合判断。
【音声認識】 - サーバーモード:faster-whisper(小型モデルsmall, CUDA対応時はGPU/FP16) - ブラウザモード:Web Speech API
アイデアが固まったのが発表前日の夜だったので、github copilotのAgent機能を使って開発のスピーディーに進めてきました。
人間の機能拡張 AIによる脳機能拡張(AIを用いた知覚・感性・認知能力の拡張) AI感情認識の実力:どれほど正確なのか? DeepFace: Pythonで始める顔認識
音声入力をリアルタイム化したい。 感情の波や思考の流れを時系列で可視化したりするようにしたい。 会話相手と自分の音声区別するために話者認識を行う。 会話から関係性分析や、話題の傾向分析を行う。 リアルタイム字幕と感情メーターの合成表示。 感情と話題のヒートマップ化やダッシュボードで表示したい。