Skip to content

Japanese-Image-Captioning/SAT-for-Japanese

Repository files navigation

SAT for Japanese

Screen Shot 2022-10-05 at 0 03 01

Instructions

  1. Dowload datasets & unzip & place it in ./ (./STAIR-captions).
  2. Download COCO datasets & unzip & place it in ./ (./train2014, ./val2014).
  3. Run python create_stair_wmap.py > stair_word_map.json
  • You can download stair_word_map.json, checkpoints, and coco_word_map.json from here!

Train

python train.py -wm=stair_word_map.json
  • Alias : sh train.sh

  • The -en option allows you to train on COCO datasets with the same data set partitioning method as STAIR Captions

python train.py -wm=XXX.json --en
  • If facing RuntimeError: unable to open shared memory object, run ulimit -n 65536 to increse the open files limit. 65536 is kinda arbitrary.

Generate Caption

  python caption.py --model=stair_checkpoints/best.pth.tar -wm=stair_word_map.json --img=<any image>

Examples

0

output: 警察 の バイク が 展示 さ れ て いる


2

output: トイレ の 便座 が 上がっ て いる


5

output: テーブル の 上 に 料理 が 並ん で いる


3

output: 時計 塔 の 上 に 時計 が つい て いる


6

output: 白い 服 を 着 た 男性 が 食事 を し て いる


5

output: 男性 が キッチン で 料理 を し て いる


Others

Licence

This work is licensed under the MIT License. To view a copy of this license, see LICENSE.