だめぷろふ記

なんとなくだめ

創作系AI

ChatGPTの話。

翻訳機能が無効化されたYouTubeの英語ライブ配信を、Windows11のライブキャプションで英文出力して、それを自動翻訳できないかなーと考え、AIに相談してみた。

おっマジかこんな事できるんだEnable-WinEventingMicrosoftProviderとか初めて聞いたわちょっとググってみるか

めっちゃ堂々と嘘つくやん?

コード自体はまぁそうだよねってコードだけど、色々創作してて逆にすげぇなと思った。

というメモ。

Hyper-VでOpenWRTのVMを作る

何もかも忘れた頃にやる作業なのでメモ。

ダウンロード

OpenWRTの最新イメージをダウンロード

最新リリース(例:22.03.5) -> targets -> x86 -> 64 -> generic-ext4-combined-efi.img.gz

  • 大抵の場合64からでいい
  • Atomなどの32bit CPUはgeneric
  • ext4-combined-efi.img.gz は読み書きできるext4パーティションで大容量化もできるが、フェイルセーフモードの利用やファクトリーリセットによる工場出荷状態への初期化はできない
  • squashfs-combined-efi.img.gz は読み取り専用のrootパーティションと読み書きできるパーティションがあり、フェイルセーフモードの利用やファクトリーリセットによる工場出荷状態への初期化が可能だが、追加のパッケージと設定を保存するためのスペースは 100MB 未満になり、extroot は機能しない

Hyper-V用仮想HDDの作成

imgファイルをvhdx形式に変換

  • WSLで作業、gunzipqmem-imgが必要
cd /mnt/c/Users/ukichi/Downloads/
gunzip -k openwrt-*.img.gz
qemu-img resize -f raw openwrt-*.img 1G
qemu-img convert openwrt-22.03.5-x86-64-generic-ext4-combined-efi.img -O vhdx openwrt-22.03.5-x86-64-generic-ext4-combined-efi.vhdx

Hyper-VでOpenWRTを構成

Gpartedでパーティションを広げる

/dev/sda2をぐいっと広げる

OpenWRTの起動

Tailscaleの暗号化負荷と遅かった通信速度のオチ

前回の続き。

DirectモードでExit Nodeと接続されるようになったので、Exit Node経由でインターネット速度を測ってみた。

https://www.speedtest.net/ja/result/14951527618

結果、ダウンロード 18.65Mbps、アップロード 96.95Mbps。 ずいぶん偏りがある。

Exit Nodeに使ったのは激安3万円PCなのだけど、ダウンロードとアップロード、それぞれどのPCがどんな暗号化処理をしているのだろうか。

少し時間がかかりそうなので、調べるぞという気持ちを固めるために、ここに書き残しておく。

と書いてから2週間、結果が得られたので書く。

試したこと

  • NURO光なC拠点にPC4(Celeron J3455 4コア1.50GHz)を設置、Exit Nodeとして追加
  • B拠点PC3のExit NodeをC拠点PC4に設定
  • B拠点PC3からC拠点PC4にiperf3とookla speedtestを実施

結果

iperf3から。

# iperf3 -c C拠点PC4
Connecting to host C拠点PC4, port 5201
[  5] local B拠点PC3 port 56794 connected to C拠点PC4 port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec  13.1 MBytes   110 Mbits/sec    9    466 KBytes
[  5]   1.00-2.00   sec  13.3 MBytes   112 Mbits/sec   33    355 KBytes
[  5]   2.00-3.00   sec  10.7 MBytes  89.6 Mbits/sec   26    283 KBytes
[  5]   3.00-4.00   sec  8.88 MBytes  74.4 Mbits/sec    0    309 KBytes
[  5]   4.00-5.00   sec  10.6 MBytes  88.5 Mbits/sec    0    324 KBytes
[  5]   5.00-6.00   sec  10.5 MBytes  88.0 Mbits/sec    0    341 KBytes
[  5]   6.00-7.00   sec  8.88 MBytes  74.5 Mbits/sec    6    276 KBytes
[  5]   7.00-8.00   sec  9.68 MBytes  81.2 Mbits/sec    0    308 KBytes
[  5]   8.00-9.00   sec  10.5 MBytes  88.0 Mbits/sec    0    330 KBytes
[  5]   9.00-10.00  sec  10.5 MBytes  88.0 Mbits/sec    0    342 KBytes
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec   107 MBytes  89.4 Mbits/sec   74             sender
[  5]   0.00-10.00  sec   105 MBytes  88.2 Mbits/sec                  receiver

iperf Done.

早ッ!次ッ!Ookla Speedtest!

早ッッ!!次ッ!!Ookla Speedtest中のExit Node負荷ッ!!

古いCeleronでも余裕ッ!!!もうこれでヨシッ!!!

考察(してない

実用になりそうな結果は得られたものの、理由がよくわからない。 なぜASAHINETでは遅く、NUROだと普通なのか。 DS-LiteとNUROの違いだろうか。 はて。

Tailscaleはrelayモードで動作すると遅い

前回の続きです。

接続状況を把握する

tailscale statusコマンドで接続状況を把握。 Windowsでもコマンドラインから使えます。

>tailscale status
100.64.xxx.xxx  pc03                 username@    windows active; offers exit node; relay "tok", tx 192355640 rx 5935112

relay "tok"という表示。

tailscale.com

Tailscale will either connect your nodes directly or via a DERP relay.

tailscale.com

Tailscale runs DERP relay servers distributed around the world to link your Tailscale nodes peer-to-peer as a side channel during NAT traversal, and as a fallback in case NAT traversal fails and a direct connection cannot be established.

なるほど、中継サーバーを経由する接続であれば、遅いのも納得。 では中継サーバーを経由しない方法は?

tailscale.com

My devices are using a relay. What can I do to help them connect peer-to-peer?

If two of your devices are on difficult networks, allowing connections to UDP port 41641 on one of them may help Tailscale make a peer-to-peer connection, rather than falling back to a relay.

なるほど、UDP:41641からの発信を通すように構成すればよいと。 Windowsパソコンの場合はWindowsファイアウォールに自動的に設定が追加されているようですが、ダメなら手動で追加しましょう。 パソコン、ルーターともに、ファイアウォールなどでUDP:41641からの発信を許可し、テスト。

まずはrelayモードで接続されているときの結果。

>iperf3 -c 同一LAN内にあるpc03のTailscale IPv4 アドレス
Connecting to host 100.64.xxx.xxx, port 5201
[  4] local 自分のPCのTailscale IPv4 アドレス port 57386 connected to pc03のTailscale IPv4 アドレス port 5201
[ ID] Interval           Transfer     Bandwidth
[  4]   0.00-1.01   sec  1.12 MBytes  9.38 Mbits/sec
[  4]   1.01-2.01   sec  1.12 MBytes  9.40 Mbits/sec
[  4]   2.01-3.00   sec  2.62 MBytes  22.2 Mbits/sec
[  4]   3.00-4.00   sec  3.12 MBytes  26.3 Mbits/sec
[  4]   4.00-5.01   sec  2.62 MBytes  21.8 Mbits/sec
[  4]   5.01-6.01   sec  2.88 MBytes  24.2 Mbits/sec
[  4]   6.01-7.01   sec  3.62 MBytes  30.4 Mbits/sec
[  4]   7.01-8.00   sec  4.50 MBytes  37.9 Mbits/sec
[  4]   8.00-9.01   sec  6.00 MBytes  50.2 Mbits/sec
[  4]   9.01-10.01  sec  4.62 MBytes  38.7 Mbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth
[  4]   0.00-10.01  sec  32.2 MBytes  27.0 Mbits/sec                  sender
[  4]   0.00-10.01  sec  32.1 MBytes  26.9 Mbits/sec                  receiver

次に、directモードで接続されているときの結果。

>tailscale status
100.64.xxx.xxx  pc03                 username@    windows active; offers exit node; direct IPv4かIPv6アドレス:41641, tx 192355640 rx 5935112

おお、41641って表示された。効いてそう。

>iperf3 -c 同一LAN内にあるpc03のTailscale IPv4 アドレス
Connecting to host 100.64.xxx.xxx, port 5201
[  4] local 自分のPCのTailscale IPv4 アドレス port 61603 connected to pc03のTailscale IPv4 アドレス port 5201
[ ID] Interval           Transfer     Bandwidth
[  4]   0.00-1.00   sec  11.0 MBytes  91.8 Mbits/sec
[  4]   1.00-2.01   sec  12.0 MBytes   101 Mbits/sec
[  4]   2.01-3.00   sec  15.1 MBytes   128 Mbits/sec
[  4]   3.00-4.01   sec  16.4 MBytes   137 Mbits/sec
[  4]   4.01-5.01   sec  16.1 MBytes   135 Mbits/sec
[  4]   5.01-6.00   sec  16.2 MBytes   137 Mbits/sec
[  4]   6.00-7.01   sec  16.1 MBytes   135 Mbits/sec
[  4]   7.01-8.00   sec  15.9 MBytes   133 Mbits/sec
[  4]   8.00-9.00   sec  16.4 MBytes   138 Mbits/sec
[  4]   9.00-10.00  sec  16.2 MBytes   136 Mbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth
[  4]   0.00-10.00  sec   152 MBytes   127 Mbits/sec                  sender
[  4]   0.00-10.00  sec   151 MBytes   127 Mbits/sec                  receiver

やったー!別次元! 暗号化なしの速度には遠く及ばないけど、同一LAN内で100Mbps超えれば上等上等。

Tailscaleの速度ボトルネックはどこ?

Tailscaleの速度が思うように出ないというメモ。

前提

全PC、同一ノードに参加。

A拠点PC1

  • Plala IPoE(DS Lite)接続(確認くんだとASAHINETと表示される古の回線)
  • インターネットルーターはEdgeRouter X SPFまたはRTX830
  • 性能は最新、通信の足を引っ張る要素なし

A拠点PC2

  • 回線はPC1と同じ
  • PCはマウスの激安子供向けノート+USB3.0接続の有線LANなのでちょっとは足引っ張るかもね

B拠点PC3

  • ASAHINET PPPoE接続
  • インターネットルーターYAMAHA RTX1210
  • 第7世代Core i7だけどメモリは潤沢、SSDなので足は引っ張らないと思う

拠点内LAN接続

まずはA拠点PC同士でiperf3。サーバーは性能が低い方で。なんとなく。

>iperf3.exe -c A拠点PC2(拠点内LAN)
Connecting to host A拠点PC2(拠点内LAN), port 5201
[ 4] local A拠点PC1(拠点内LAN) port 60277 connected to A拠点PC2(拠点内LAN) port 5201
[ ID] Interval Transfer Bandwidth
[ 4] 0.00-1.00 sec 113 MBytes 949 Mbits/sec
[ 4] 1.00-2.00 sec 113 MBytes 949 Mbits/sec
[ 4] 2.00-3.00 sec 113 MBytes 946 Mbits/sec
[ 4] 3.00-4.00 sec 113 MBytes 948 Mbits/sec
[ 4] 4.00-5.00 sec 112 MBytes 944 Mbits/sec
[ 4] 5.00-6.00 sec 109 MBytes 916 Mbits/sec
[ 4] 6.00-7.00 sec 108 MBytes 908 Mbits/sec
[ 4] 7.00-8.00 sec 113 MBytes 946 Mbits/sec
[ 4] 8.00-9.00 sec 113 MBytes 948 Mbits/sec
[ 4] 9.00-10.00 sec 113 MBytes 949 Mbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval Transfer Bandwidth
[ 4] 0.00-10.00 sec 1.09 GBytes 940 Mbits/sec sender
[ 4] 0.00-10.00 sec 1.09 GBytes 940 Mbits/sec receiver

iperf Done.

ええやん。まー暗号化されてないから。

拠点内Tailscale接続

次、同じ組み合わせでTailscale接続経由。

>iperf3.exe -c A拠点PC2(Tailscale)
Connecting to host A拠点PC2(Tailscale), port 5201
[ 4] local A拠点PC1(Tailscale) port 60220 connected to A拠点PC2(Tailscale) port 5201
[ ID] Interval Transfer Bandwidth
[ 4] 0.00-1.01 sec 17.5 MBytes 146 Mbits/sec
[ 4] 1.01-2.00 sec 17.0 MBytes 143 Mbits/sec
[ 4] 2.00-3.00 sec 17.5 MBytes 147 Mbits/sec
[ 4] 3.00-4.00 sec 17.8 MBytes 149 Mbits/sec
[ 4] 4.00-5.00 sec 17.8 MBytes 149 Mbits/sec
[ 4] 5.00-6.00 sec 17.9 MBytes 150 Mbits/sec
[ 4] 6.00-7.00 sec 17.6 MBytes 148 Mbits/sec
[ 4] 7.00-8.00 sec 18.1 MBytes 152 Mbits/sec
[ 4] 8.00-9.00 sec 14.6 MBytes 123 Mbits/sec
[ 4] 9.00-10.00 sec 11.6 MBytes 97.8 Mbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval Transfer Bandwidth
[ 4] 0.00-10.00 sec 167 MBytes 140 Mbits/sec sender
[ 4] 0.00-10.00 sec 167 MBytes 140 Mbits/sec receiver

iperf Done.

この数字をどう見るか。 個人的には運用上問題ないけど思ったより遅い。

この測定結果は同じルーターから出入りしてるけど、ルーター2台使って違うルーターを経由して同じHGWから出る構成でも結果は同じだった。どこでどう折り返しているのだろうか。

拠点間Tailscale接続

次、拠点間。B拠点PC3からA拠点PC2へ。

>iperf3.exe -c A拠点PC2(Tailscale)
Connecting to host A拠点PC2(Tailscale), port 5201
[ 4] local B拠点PC3(Tailscale) port 55513 connected to A拠点PC2(Tailscale) port 5201
[ ID] Interval Transfer Bandwidth
[ 4] 0.00-1.00 sec 2.75 MBytes 23.0 Mbits/sec
[ 4] 1.00-2.00 sec 3.88 MBytes 32.6 Mbits/sec
[ 4] 2.00-3.01 sec 4.12 MBytes 34.1 Mbits/sec
[ 4] 3.01-4.01 sec 4.25 MBytes 35.9 Mbits/sec
[ 4] 4.01-5.01 sec 4.88 MBytes 40.8 Mbits/sec
[ 4] 5.01-6.01 sec 5.38 MBytes 45.0 Mbits/sec
[ 4] 6.01-7.01 sec 5.25 MBytes 44.4 Mbits/sec
[ 4] 7.01-8.01 sec 3.50 MBytes 29.4 Mbits/sec
[ 4] 8.01-9.00 sec 4.00 MBytes 33.7 Mbits/sec
[ 4] 9.00-10.00 sec 4.00 MBytes 33.5 Mbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval Transfer Bandwidth
[ 4] 0.00-10.00 sec 42.0 MBytes 35.2 Mbits/sec sender
[ 4] 0.00-10.00 sec 42.0 MBytes 35.2 Mbits/sec receiver

iperf Done.

えぇ・・・遅い・・・

なぜなのか。

サーバーを高性能なPCに変更

なおA拠点PC1をサーバーにしたら、さらに悪化した。

[ 4] 0.00-10.00 sec 17.9 MBytes 15.0 Mbits/sec sender
[ 4] 0.00-10.00 sec 17.8 MBytes 14.9 Mbits/sec receiver

[ 4] 0.00-10.00 sec 23.0 MBytes 19.3 Mbits/sec sender
[ 4] 0.00-10.00 sec 22.9 MBytes 19.2 Mbits/sec receiver

[ 4] 0.00-10.00 sec 22.0 MBytes 18.5 Mbits/sec sender
[ 4] 0.00-10.00 sec 21.9 MBytes 18.4 Mbits/sec receiver

なぜなのか。 A拠点PC2にサーバーを戻してみる。

[ 4] 0.00-10.01 sec 54.9 MBytes 46.0 Mbits/sec sender
[ 4] 0.00-10.01 sec 54.8 MBytes 46.0 Mbits/sec receiver

[ 4] 0.00-10.01 sec 45.2 MBytes 37.9 Mbits/sec sender
[ 4] 0.00-10.01 sec 45.2 MBytes 37.9 Mbits/sec receiver

[ 4] 0.00-10.00 sec 53.1 MBytes 44.6 Mbits/sec sender
[ 4] 0.00-10.00 sec 53.1 MBytes 44.6 Mbits/sec receiver

えぇ・・・再現性あんの・・・どゆこと・・・逆ならまだしも・・・

よくわからない

それぞれの拠点でooklaのスピードテストしても上下数百Mbps出てる。

Tailscaleの端末間通信はChaCha20-Poly1305を使うP2Pと理解している。ので、経路ボトルネック最小となる同一拠点Tailscale端末間通信は、消去法的に暗号化負荷が支配的になると思う。

まー他拠点からでもそんなに速度はへこまんであろう、くらいに思ってたのです。根拠ないけど8割程度は出るだろうと。

でもこの結果を見ると全然そうはなっておらず、見えてはいないがしかし確固たる何かがありそう。へっぽこスペックの端末のが速いってのも、わからない。

さてどこにボトルネックがあるのやら。

ボトルネックの探し方から探す感じかね・・・

2.5インチSATAサイズSSDとM.2 NVMe SSD

ある程度恒久的な記録としてとどめる場がここくらいしかないのでメモ。

色々がんばったご褒美に、Crucial CT525MX300をCFD CSSD-M2B1TPG3VNFに換装。

SATAの帯域上限とNVMeの帯域上限とでは、まさに桁が違うのですが、フツーのSATA接続SSDでも何ら不満はなかったです。家に帰ってPCの電源入れて上着脱いでハンガーにかけてネクタイ外してハンガーにかける頃にはサインイン画面が出てるし、FFXIVでもロードが長いと感じたことがないので。

でもまーせっかく今のシステムにはM2スロットがついてるし、値段もずいぶん下がってきたし、Cドライブが1TBあると嬉しいので、PCI Express 4.0 (Gen4)対応でTBW(一般的な使い方をし続けた場合の寿命を表す数値)が高い、CFD CSSD-M2B1TPG3VNFを床から生やすことに。

ポチっとしてから24時間くらいで床から生えてくるので、いい世の中です。

まずは換装前(CT525MX300)のベンチマークから。

------------------------------------------------------------------------------
CrystalDiskMark 8.0.1 x64 (C) 2007-2021 hiyohiyo
Crystal Dew World: https://crystalmark.info/
------------------------------------------------------------------------------
* MB/s = 1,000,000 bytes/s [SATA/600 = 600,000,000 bytes/s]
* KB = 1000 bytes, KiB = 1024 bytes

[Read]
SEQ 1MiB (Q= 8, T= 1): 507.445 MB/s [ 483.9 IOPS] < 16474.30 us>
SEQ 1MiB (Q= 1, T= 1): 460.801 MB/s [ 439.5 IOPS] < 2274.57 us>
RND 4KiB (Q= 32, T= 1): 266.831 MB/s [ 65144.3 IOPS] < 475.53 us>
RND 4KiB (Q= 1, T= 1): 26.563 MB/s [ 6485.1 IOPS] < 154.05 us>

[Write]
SEQ 1MiB (Q= 8, T= 1): 511.424 MB/s [ 487.7 IOPS] < 16346.47 us>
SEQ 1MiB (Q= 1, T= 1): 470.731 MB/s [ 448.9 IOPS] < 2225.77 us>
RND 4KiB (Q= 32, T= 1): 228.383 MB/s [ 55757.6 IOPS] < 555.16 us>
RND 4KiB (Q= 1, T= 1): 84.401 MB/s [ 20605.7 IOPS] < 48.38 us>

Profile: Default
Test: 1 GiB (x5) [C: 66% (321/488GiB)]
Mode: [Admin]
Time: Measure 5 sec / Interval 5 sec
Date: 2021/05/08 10:56:42
OS: Windows 10 Professional [10.0 Build 19042] (x64)

CrystalDiskMark 8.0.1 x64 [Admin]-2021-05-08 11_04_42

ファイナルファンタジーXIV漆黒ベンチマーク-2021-05-08 11_20_45


そして換装後CSSD-M2B1TPG3VNF)。

------------------------------------------------------------------------------
CrystalDiskMark 8.0.1 x64 (C) 2007-2021 hiyohiyo
Crystal Dew World: https://crystalmark.info/
------------------------------------------------------------------------------
* MB/s = 1,000,000 bytes/s [SATA/600 = 600,000,000 bytes/s]
* KB = 1000 bytes, KiB = 1024 bytes

[Read]
SEQ 1MiB (Q= 8, T= 1): 3301.984 MB/s [ 3149.0 IOPS] < 2530.80 us>
SEQ 1MiB (Q= 1, T= 1): 1970.438 MB/s [ 1879.2 IOPS] < 531.29 us>
RND 4KiB (Q= 32, T= 1): 827.133 MB/s [ 201936.8 IOPS] < 153.23 us>
RND 4KiB (Q= 1, T= 1): 51.942 MB/s [ 12681.2 IOPS] < 78.68 us>

[Write]
SEQ 1MiB (Q= 8, T= 1): 3196.410 MB/s [ 3048.3 IOPS] < 2596.08 us>
SEQ 1MiB (Q= 1, T= 1): 2215.991 MB/s [ 2113.3 IOPS] < 472.31 us>
RND 4KiB (Q= 32, T= 1): 711.408 MB/s [ 173683.6 IOPS] < 178.35 us>
RND 4KiB (Q= 1, T= 1): 152.434 MB/s [ 37215.3 IOPS] < 26.70 us>

Profile: Default
Test: 1 GiB (x5) [H: 0% (0/931GiB)]
Mode: [Admin]
Time: Measure 5 sec / Interval 5 sec
Date: 2021/05/08 12:13:19
OS: Windows 10 Professional [10.0 Build 19042] (x64)

CrystalDiskMark 8.0.1 x64 [Admin]-2021-05-08 12_10_25

ファイナルファンタジーXIV漆黒ベンチマーク-2021-05-08 12_21_36


システムがPCI Express 3.0 (Gen3)なので、Gen4対応であるM2B1TPG3VNFの性能は出し切れてないのだけど、それでも隔世の感がある。漆黒ベンチのローディングタイムが7秒縮まったのはすごい。

とはいえ、ゲーム中に体感できるかというとそうでもなく。アップデートでテレポ後のロード時間が短縮されたので、体感できる効果はその縮んだ後の時間の何割か。



でもいいんです。これはご褒美なので。

Becky! Internet Mail から GmailとOutlook への移行

メールはだいぶ前からgmailに統一済みであるものの、2GB以上のBeckyデータフォルダをプログラムファイルと共に維持していたが、バックアップやリストアでメールデータにアクセスするたびにスパムメールに仕込まれた際どいコードにセキュリティソフトが反応してしまい、それ対処するのが億劫になってきたので、前世紀からの遺物を現行データにマージし、Beckyデータはフォルダごと供養することにした。

諸先輩方の貴重な記録によると Outlook ExpressWindows Live mail を使う方法があるようだが、時は世紀末ならぬ2018年でありWindows 10 であり 「Windows Essentials 2012 スイートのサポートは 2017 年 1 月 10 日に終了しました。」でありそらそうよであるので、代替手段を探し、実行した。

やりたいこと

・メールについて、Beckyのフォルダ構造を保ち、GmailOutlookに移行する
・アドレス帳はわりとどうでもいい

基本的な考え方

・Beckyでメールのフォルダ構造を保ちつつエクスポート
・移行先にインポートできる形式に変換
・移行先にインポート

つかったもの

・CircleBecky( 窓の杜 https://www.vector.co.jp/soft/win95/net/se252604.html
・MailStore Home( 窓の杜 https://forest.watch.impress.co.jp/library/software/mailstore/

実際の作業の流れ

・適当な場所(たとえばデスクトップ)に、エクスポートするデータを置くためのフォルダ(たとえばExport)を作る
・BeckyにCircleBeckyプラグインをインストール(プラグインの設定は変更なしでOK)
・Beckyでエクスポートしたいメールボックスを右クリックし、「拡張エクスポート...」をクリック
・先ほど作ったフォルダを指定
・メールボックス名でフォルダが作成され、その中にeml形式でデータがエクスポートされる
・メールボックスの数だけ繰り返す
・MailStoreで左側にある「Eメールのアーカイブ」から、右側にある「EMLファイルおよびMSGファイル」をクリック
・「参照」ボタンから、エクスポートしたメールボックス名のフォルダを指定する
・「次へ」「終了」をクリックする


感想

・CircleBeckyでフォルダ構造を保つ形式でエクスポートさえできれば、以降の行程で使えそうなツールは複数ありそう。
・逆に言えば、Beckyが動く環境で動くCircleBeckyが入手できなくなると詰む。
・MailStore Homeがとても優秀。旧来のメールクライアントはもとより、GmailやExchange、IMAPPOP3からのアーカイブ(インポート)に対応しているので、クラウド上のメールデータをPCにダウンロード、保管しておく用途にも使える。
・MailStoreからExchangeやGmailへのデータ移行は遅い。Exchangeはメールサイズに応じた速度で転送されるが、Gmailは1通1秒程度かかっていた。場合によっては数十時間かかると思う。