]> Sergey Matveev's repositories - public-inbox.git/blobdiff - lib/PublicInbox/V2Writable.pm
Merge remote-tracking branch 'origin/master' into lorelei
[public-inbox.git] / lib / PublicInbox / V2Writable.pm
index 8148439aca5e6dd3dc015f33849e4d890460eea3..edb8ba570f0ae2e9a6a127d2e778160a8b68a255 100644 (file)
@@ -8,7 +8,6 @@ use strict;
 use v5.10.1;
 use parent qw(PublicInbox::Lock);
 use PublicInbox::SearchIdxShard;
-use PublicInbox::IdxStack;
 use PublicInbox::Eml;
 use PublicInbox::Git;
 use PublicInbox::Import;
@@ -18,13 +17,14 @@ use PublicInbox::InboxWritable;
 use PublicInbox::OverIdx;
 use PublicInbox::Msgmap;
 use PublicInbox::Spawn qw(spawn popen_rd);
-use PublicInbox::SearchIdx qw(log2stack crlf_adjust is_ancestor check_size);
+use PublicInbox::SearchIdx qw(log2stack crlf_adjust is_ancestor check_size
+       is_bad_blob);
 use IO::Handle; # ->autoflush
-use File::Temp qw(tempfile);
+use File::Temp ();
 
 my $OID = qr/[a-f0-9]{40,}/;
 # an estimate of the post-packed size to the raw uncompressed size
-my $PACKING_FACTOR = 0.4;
+our $PACKING_FACTOR = 0.4;
 
 # SATA storage lags behind what CPUs are capable of, so relying on
 # nproc(1) can be misleading and having extra Xapian shards is a
@@ -66,28 +66,15 @@ sub nproc_shards ($) {
 
 sub count_shards ($) {
        my ($self) = @_;
-       my $n = 0;
-       my $xpfx = $self->{xpfx};
-
-       # always load existing shards in case core count changes:
-       # Also, shard count may change while -watch is running
-       # due to "xcpdb --reshard"
-       if (-d $xpfx) {
-               my $XapianDatabase;
-               foreach my $shard (<$xpfx/*>) {
-                       -d $shard && $shard =~ m!/[0-9]+\z! or next;
-                       $XapianDatabase //= do {
-                               require PublicInbox::Search;
-                               PublicInbox::Search::load_xapian();
-                               $PublicInbox::Search::X{Database};
-                       };
-                       eval {
-                               $XapianDatabase->new($shard)->close;
-                               $n++;
-                       };
-               }
+       if (my $ibx = $self->{ibx}) {
+               # always load existing shards in case core count changes:
+               # Also, shard count may change while -watch is running
+               my $srch = $ibx->search or return 0;
+               delete $ibx->{search};
+               $srch->{nshard} // 0
+       } else { # ExtSearchIdx
+               $self->{nshard} ||= scalar($self->xdb_shards_flat);
        }
-       $n;
 }
 
 sub new {
@@ -104,8 +91,6 @@ sub new {
                        die "$dir does not exist\n";
                }
        }
-       $v2ibx->umask_prepare;
-
        my $xpfx = "$dir/xap" . PublicInbox::Search::SCHEMA_VERSION;
        my $self = {
                ibx => $v2ibx,
@@ -115,13 +100,13 @@ sub new {
                total_bytes => 0,
                current_info => '',
                xpfx => $xpfx,
-               over => PublicInbox::OverIdx->new("$xpfx/over.sqlite3"),
+               oidx => PublicInbox::OverIdx->new("$xpfx/over.sqlite3"),
                lock_path => "$dir/inbox.lock",
                # limit each git repo (epoch) to 1GB or so
                rotate_bytes => int((1024 * 1024 * 1024) / $PACKING_FACTOR),
                last_commit => [], # git epoch -> commit
        };
-       $self->{over}->{-no_fsync} = 1 if $v2ibx->{-no_fsync};
+       $self->{oidx}->{-no_fsync} = 1 if $v2ibx->{-no_fsync};
        $self->{shards} = count_shards($self) || nproc_shards($creat);
        bless $self, $class;
 }
@@ -135,12 +120,9 @@ sub init_inbox {
        }
        $self->idx_init;
        $self->{mm}->skip_artnum($skip_artnum) if defined $skip_artnum;
-       my $epoch_max = -1;
-       git_dir_latest($self, \$epoch_max);
-       if (defined $skip_epoch && $epoch_max == -1) {
-               $epoch_max = $skip_epoch;
-       }
-       $self->git_init($epoch_max >= 0 ? $epoch_max : 0);
+       my $max = $self->{ibx}->max_git_epoch;
+       $max = $skip_epoch if (defined($skip_epoch) && !defined($max));
+       $self->git_init($max // 0);
        $self->done;
 }
 
@@ -151,21 +133,20 @@ sub add {
        $self->{ibx}->with_umask(\&_add, $self, $eml, $check_cb);
 }
 
-sub batch_bytes ($) {
-       my ($self) = @_;
-       ($self->{parallel} ? $self->{shards} : 1) *
-               $PublicInbox::SearchIdx::BATCH_BYTES;
+sub idx_shard ($$) {
+       my ($self, $num) = @_;
+       $self->{idx_shards}->[$num % scalar(@{$self->{idx_shards}})];
 }
 
 # indexes a message, returns true if checkpointing is needed
 sub do_idx ($$$$) {
        my ($self, $msgref, $mime, $smsg) = @_;
        $smsg->{bytes} = $smsg->{raw_bytes} + crlf_adjust($$msgref);
-       $self->{over}->add_overview($mime, $smsg);
-       my $idx = idx_shard($self, $smsg->{num} % $self->{shards});
+       $self->{oidx}->add_overview($mime, $smsg);
+       my $idx = idx_shard($self, $smsg->{num});
        $idx->index_raw($msgref, $mime, $smsg);
        my $n = $self->{transact_bytes} += $smsg->{raw_bytes};
-       $n >= batch_bytes($self);
+       $n >= $self->{batch_bytes};
 }
 
 sub _add {
@@ -226,7 +207,7 @@ sub v2_num_for {
                if ($altid && grep(/:file=msgmap\.sqlite3\z/, @$altid)) {
                        my $num = $self->{mm}->num_for($mid);
 
-                       if (defined $num && !$self->{over}->get_art($num)) {
+                       if (defined $num && !$self->{oidx}->get_art($num)) {
                                return ($num, $mid);
                        }
                }
@@ -273,19 +254,16 @@ sub v2_num_for_harder {
        ($num, $mid0);
 }
 
-sub idx_shard {
-       my ($self, $shard_i) = @_;
-       $self->{idx_shards}->[$shard_i];
-}
-
 sub _idx_init { # with_umask callback
        my ($self, $opt) = @_;
        $self->lock_acquire unless $opt && $opt->{-skip_lock};
-       $self->{over}->create;
+       $self->{oidx}->create;
 
        # xcpdb can change shard count while -watch is idle
        my $nshards = count_shards($self);
        $self->{shards} = $nshards if $nshards && $nshards != $self->{shards};
+       $self->{batch_bytes} = $opt->{batch_size} //
+                               $PublicInbox::SearchIdx::BATCH_BYTES;
 
        # need to create all shards before initializing msgmap FD
        # idx_shards must be visible to all forked processes
@@ -293,14 +271,34 @@ sub _idx_init { # with_umask callback
        my $idx = $self->{idx_shards} = [];
        push @$idx, PublicInbox::SearchIdxShard->new($self, $_) for (0..$max);
 
+       # SearchIdxShard may do their own flushing, so don't scale
+       # until after forking
+       $self->{batch_bytes} *= $self->{shards} if $self->{parallel};
+
+       my $ibx = $self->{ibx} or return; # ExtIdxSearch
+
        # Now that all subprocesses are up, we can open the FDs
        # for SQLite:
        my $mm = $self->{mm} = PublicInbox::Msgmap->new_file(
-                               "$self->{ibx}->{inboxdir}/msgmap.sqlite3",
-                               $self->{ibx}->{-no_fsync} ? 2 : 1);
+                               "$ibx->{inboxdir}/msgmap.sqlite3",
+                               $ibx->{-no_fsync} ? 2 : 1);
        $mm->{dbh}->begin_work;
 }
 
+sub parallel_init ($$) {
+       my ($self, $indexlevel) = @_;
+       if (($indexlevel // 'full') eq 'basic') {
+               $self->{parallel} = 0;
+       } else {
+               pipe(my ($r, $w)) or die "pipe failed: $!";
+               # pipe for barrier notifications doesn't need to be big,
+               # 1031: F_SETPIPE_SZ
+               fcntl($w, 1031, 4096) if $^O eq 'linux';
+               $self->{bnote} = [ $r, $w ];
+               $w->autoflush(1);
+       }
+}
+
 # idempotent
 sub idx_init {
        my ($self, $opt) = @_;
@@ -313,17 +311,7 @@ sub idx_init {
        delete @$ibx{qw(mm search)};
        $ibx->git->cleanup;
 
-       $self->{parallel} = 0 if ($ibx->{indexlevel}//'') eq 'basic';
-       if ($self->{parallel}) {
-               pipe(my ($r, $w)) or die "pipe failed: $!";
-               # pipe for barrier notifications doesn't need to be big,
-               # 1031: F_SETPIPE_SZ
-               fcntl($w, 1031, 4096) if $^O eq 'linux';
-               $self->{bnote} = [ $r, $w ];
-               $w->autoflush(1);
-       }
-
-       $ibx->umask_prepare;
+       parallel_init($self, $ibx->{indexlevel});
        $ibx->with_umask(\&_idx_init, $self, $opt);
 }
 
@@ -333,14 +321,10 @@ sub idx_init {
 sub _replace_oids ($$$) {
        my ($self, $mime, $replace_map) = @_;
        $self->done;
-       my $pfx = "$self->{ibx}->{inboxdir}/git";
+       my $ibx = $self->{ibx};
+       my $pfx = "$ibx->{inboxdir}/git";
        my $rewrites = []; # epoch => commit
-       my $max = $self->{epoch_max};
-
-       unless (defined($max)) {
-               defined(my $latest = git_dir_latest($self, \$max)) or return;
-               $self->{epoch_max} = $max;
-       }
+       my $max = $self->{epoch_max} //= $ibx->max_git_epoch // return;
 
        foreach my $i (0..$max) {
                my $git_dir = "$pfx/$i.git";
@@ -385,7 +369,7 @@ sub rewrite_internal ($$;$$$) {
        } else {
                $im = $self->importer;
        }
-       my $over = $self->{over};
+       my $oidx = $self->{oidx};
        my $chashes = content_hashes($old_eml);
        my $removed = [];
        my $mids = mids($old_eml);
@@ -399,7 +383,7 @@ sub rewrite_internal ($$;$$$) {
        foreach my $mid (@$mids) {
                my %gone; # num => [ smsg, $mime, raw ]
                my ($id, $prev);
-               while (my $smsg = $over->next_by_mid($mid, \$id, \$prev)) {
+               while (my $smsg = $oidx->next_by_mid($mid, \$id, \$prev)) {
                        my $msg = get_blob($self, $smsg);
                        if (!defined($msg)) {
                                warn "broken smsg for $mid\n";
@@ -435,7 +419,7 @@ sub rewrite_internal ($$;$$$) {
                        } else { # ->purge or ->remove
                                $self->{mm}->num_delete($num);
                        }
-                       unindex_oid_remote($self, $oid, $mid);
+                       unindex_oid_aux($self, $oid, $mid);
                }
        }
 
@@ -488,7 +472,7 @@ sub git_hash_raw ($$) {
        my ($self, $raw) = @_;
        # grab the expected OID we have to reindex:
        pipe(my($in, $w)) or die "pipe: $!";
-       my $git_dir = $self->{ibx}->git->{git_dir};
+       my $git_dir = $self->git->{git_dir};
        my $cmd = ['git', "--git-dir=$git_dir", qw(hash-object --stdin)];
        my $r = popen_rd($cmd, undef, { 0 => $in });
        print $w $$raw or die "print \$w: $!";
@@ -552,11 +536,11 @@ W: $list
        }
 
        # make sure we really got the OID:
-       my ($blob, $type, $bytes) = $self->{ibx}->git->check($expect_oid);
+       my ($blob, $type, $bytes) = $self->git->check($expect_oid);
        $blob eq $expect_oid or die "BUG: $expect_oid not found after replace";
 
        # don't leak FDs to Xapian:
-       $self->{ibx}->git->cleanup;
+       $self->git->cleanup;
 
        # reindex modified messages:
        for my $smsg (@$need_reindex) {
@@ -579,7 +563,7 @@ sub last_epoch_commit ($$;$) {
        $self->{mm}->last_commit_xap($v, $i, $cmt);
 }
 
-sub set_last_commits ($) {
+sub set_last_commits ($) { # this is NOT for ExtSearchIdx
        my ($self) = @_;
        defined(my $epoch_max = $self->{epoch_max}) or return;
        my $last_commit = $self->{last_commit};
@@ -621,34 +605,40 @@ sub checkpoint ($;$) {
        }
        my $shards = $self->{idx_shards};
        if ($shards) {
-               my $dbh = $self->{mm}->{dbh};
+               my $mm = $self->{mm};
+               my $dbh = $mm->{dbh} if $mm;
 
                # SQLite msgmap data is second in importance
-               $dbh->commit;
+               $dbh->commit if $dbh;
 
                # SQLite overview is third
-               $self->{over}->commit_lazy;
+               $self->{oidx}->commit_lazy;
 
                # Now deal with Xapian
                if ($wait) {
-                       my $barrier = $self->barrier_init(scalar @$shards);
+                       my $barrier = barrier_init($self, scalar @$shards);
 
                        # each shard needs to issue a barrier command
-                       $_->remote_barrier for @$shards;
+                       $_->shard_barrier for @$shards;
 
                        # wait for each Xapian shard
-                       $self->barrier_wait($barrier);
+                       barrier_wait($self, $barrier);
                } else {
-                       $_->remote_commit for @$shards;
+                       $_->shard_commit for @$shards;
                }
 
+               my $midx = $self->{midx}; # misc index
+               $midx->commit_txn if $midx;
+
                # last_commit is special, don't commit these until
-               # remote shards are done:
-               $dbh->begin_work;
+               # Xapian shards are done:
+               $dbh->begin_work if $dbh;
                set_last_commits($self);
-               $dbh->commit;
-
-               $dbh->begin_work;
+               if ($dbh) {
+                       $dbh->commit;
+                       $dbh->begin_work;
+               }
+               $midx->begin_txn if $midx;
        }
        $self->{total_bytes} += $self->{transact_bytes};
        $self->{transact_bytes} = 0;
@@ -659,6 +649,9 @@ sub checkpoint ($;$) {
 # public
 sub barrier { checkpoint($_[0], 1) };
 
+# true if locked and active
+sub active { !!$_[0]->{im} }
+
 # public
 sub done {
        my ($self) = @_;
@@ -679,20 +672,33 @@ sub done {
        my $shards = delete $self->{idx_shards};
        if ($shards) {
                for (@$shards) {
-                       eval { $_->remote_close };
+                       eval { $_->shard_close };
                        $err .= "shard close: $@\n" if $@;
                }
        }
-       eval { $self->{over}->disconnect };
-       $err .= "over disconnect: $@\n" if $@;
+       eval { $self->{oidx}->dbh_close };
+       $err .= "over close: $@\n" if $@;
+       delete $self->{midx};
        delete $self->{bnote};
        my $nbytes = $self->{total_bytes};
        $self->{total_bytes} = 0;
        $self->lock_release(!!$nbytes) if $shards;
-       $self->{ibx}->git->cleanup;
+       $self->git->cleanup;
        die $err if $err;
 }
 
+sub write_alternates ($$$) {
+       my ($info_dir, $mode, $out) = @_;
+       my $fh = File::Temp->new(TEMPLATE => 'alt-XXXXXXXX', DIR => $info_dir);
+       my $tmp = $fh->filename;
+       print $fh @$out or die "print $tmp: $!\n";
+       chmod($mode, $fh) or die "fchmod $tmp: $!\n";
+       close $fh or die "close $tmp $!\n";
+       my $alt = "$info_dir/alternates";
+       rename($tmp, $alt) or die "rename $tmp => $alt: $!\n";
+       $fh->unlink_on_destroy(0);
+}
+
 sub fill_alternates ($$) {
        my ($self, $epoch) = @_;
 
@@ -731,13 +737,8 @@ sub fill_alternates ($$) {
                }
        }
        return unless $new;
-
-       my ($fh, $tmp) = tempfile('alt-XXXXXXXX', DIR => $info_dir);
-       print $fh join("\n", sort { $alt{$b} <=> $alt{$a} } keys %alt), "\n"
-               or die "print $tmp: $!\n";
-       chmod($mode, $fh) or die "fchmod $tmp: $!\n";
-       close $fh or die "close $tmp $!\n";
-       rename($tmp, $alt) or die "rename $tmp => $alt: $!\n";
+       write_alternates($info_dir, $mode,
+               [join("\n", sort { $alt{$b} <=> $alt{$a} } keys %alt), "\n"]);
 }
 
 sub git_init {
@@ -751,23 +752,6 @@ sub git_init {
        $git_dir
 }
 
-sub git_dir_latest {
-       my ($self, $max) = @_;
-       $$max = -1;
-       my $pfx = "$self->{ibx}->{inboxdir}/git";
-       return unless -d $pfx;
-       my $latest;
-       opendir my $dh, $pfx or die "opendir $pfx: $!\n";
-       while (defined(my $git_dir = readdir($dh))) {
-               $git_dir =~ m!\A([0-9]+)\.git\z! or next;
-               if ($1 > $$max) {
-                       $$max = $1;
-                       $latest = "$pfx/$git_dir";
-               }
-       }
-       $latest;
-}
-
 sub importer {
        my ($self) = @_;
        my $im = $self->{im};
@@ -786,7 +770,7 @@ sub importer {
        }
        my $epoch = 0;
        my $max;
-       my $latest = git_dir_latest($self, \$max);
+       my $latest = $self->{ibx}->git_dir_latest(\$max);
        if (defined $latest) {
                my $git = PublicInbox::Git->new($latest);
                my $packed_bytes = $git->packed_bytes;
@@ -818,18 +802,17 @@ sub import_init {
 sub diff ($$$) {
        my ($mid, $cur, $new) = @_;
 
-       my ($ah, $an) = tempfile('email-cur-XXXXXXXX', TMPDIR => 1);
+       my $ah = File::Temp->new(TEMPLATE => 'email-cur-XXXXXXXX', TMPDIR => 1);
        print $ah $cur->as_string or die "print: $!";
-       close $ah or die "close: $!";
-       my ($bh, $bn) = tempfile('email-new-XXXXXXXX', TMPDIR => 1);
+       $ah->flush or die "flush: $!";
        PublicInbox::Import::drop_unwanted_headers($new);
+       my $bh = File::Temp->new(TEMPLATE => 'email-new-XXXXXXXX', TMPDIR => 1);
        print $bh $new->as_string or die "print: $!";
-       close $bh or die "close: $!";
-       my $cmd = [ qw(diff -u), $an, $bn ];
+       $bh->flush or die "flush: $!";
+       my $cmd = [ qw(diff -u), $ah->filename, $bh->filename ];
        print STDERR "# MID conflict <$mid>\n";
        my $pid = spawn($cmd, undef, { 1 => 2 });
        waitpid($pid, 0) == $pid or die "diff did not finish";
-       unlink($an, $bn);
 }
 
 sub get_blob ($$) {
@@ -844,10 +827,10 @@ sub get_blob ($$) {
 
 sub content_exists ($$$) {
        my ($self, $mime, $mid) = @_;
-       my $over = $self->{over};
+       my $oidx = $self->{oidx};
        my $chashes = content_hashes($mime);
        my ($id, $prev);
-       while (my $smsg = $over->next_by_mid($mid, \$id, \$prev)) {
+       while (my $smsg = $oidx->next_by_mid($mid, \$id, \$prev)) {
                my $msg = get_blob($self, $smsg);
                if (!defined($msg)) {
                        warn "broken smsg for $mid\n";
@@ -878,29 +861,50 @@ sub atfork_child {
 sub reindex_checkpoint ($$) {
        my ($self, $sync) = @_;
 
-       $self->{ibx}->git->cleanup; # *async_wait
+       $self->git->async_wait_all;
+       $self->update_last_commit($sync);
        ${$sync->{need_checkpoint}} = 0;
        my $mm_tmp = $sync->{mm_tmp};
        $mm_tmp->atfork_prepare if $mm_tmp;
-       $self->done; # release lock
+       die 'BUG: {im} during reindex' if $self->{im};
+       if ($self->{ibx_map} && !$sync->{checkpoint_unlocks}) {
+               checkpoint($self, 1); # no need to release lock on pure index
+       } else {
+               $self->done; # release lock
+       }
 
-       if (my $pr = $sync->{-opt}->{-progress}) {
+       if (my $pr = $sync->{-regen_fmt} ? $sync->{-opt}->{-progress} : undef) {
                $pr->(sprintf($sync->{-regen_fmt}, ${$sync->{nr}}));
        }
 
        # allow -watch or -mda to write...
-       $self->idx_init; # reacquire lock
+       $self->idx_init($sync->{-opt}); # reacquire lock
+       if (my $intvl = $sync->{check_intvl}) { # eidx
+               $sync->{next_check} = PublicInbox::DS::now() + $intvl;
+       }
        $mm_tmp->atfork_parent if $mm_tmp;
 }
 
+sub index_finalize ($$) {
+       my ($arg, $index) = @_;
+       ++$arg->{self}->{nidx};
+       if (defined(my $cur = $arg->{cur_cmt})) {
+               ${$arg->{latest_cmt}} = $cur;
+       } elsif ($index) {
+               die 'BUG: {cur_cmt} missing';
+       } # else { unindexing @leftovers doesn't set {cur_cmt}
+}
+
 sub index_oid { # cat_async callback
        my ($bref, $oid, $type, $size, $arg) = @_;
-       return if $size == 0; # purged
+       is_bad_blob($oid, $type, $size, $arg->{oid}) and
+               return index_finalize($arg, 1); # size == 0 purged returns here
+       my $self = $arg->{self};
+       local $self->{current_info} = "$self->{current_info} $oid";
        my ($num, $mid0);
        my $eml = PublicInbox::Eml->new($$bref);
        my $mids = mids($eml);
        my $chash = content_hash($eml);
-       my $self = $arg->{v2w};
 
        if (scalar(@$mids) == 0) {
                warn "E: $oid has no Message-ID, skipping\n";
@@ -917,9 +921,9 @@ sub index_oid { # cat_async callback
                }
        }
        if (!defined($num)) { # reuse if reindexing (or duplicates)
-               my $over = $self->{over};
+               my $oidx = $self->{oidx};
                for my $mid (@$mids) {
-                       ($num, $mid0) = $over->num_mid0_for_oid($oid, $mid);
+                       ($num, $mid0) = $oidx->num_mid0_for_oid($oid, $mid);
                        last if defined $num;
                }
        }
@@ -967,38 +971,41 @@ sub index_oid { # cat_async callback
        if (do_idx($self, $bref, $eml, $smsg)) {
                ${$arg->{need_checkpoint}} = 1;
        }
+       index_finalize($arg, 1);
 }
 
 # only update last_commit for $i on reindex iff newer than current
-sub update_last_commit ($$$$) {
-       my ($self, $git, $i, $cmt) = @_;
-       my $last = last_epoch_commit($self, $i);
-       if (defined $last && is_ancestor($git, $last, $cmt)) {
-               my @cmd = (qw(rev-list --count), "$last..$cmt");
-               chomp(my $n = $git->qx(@cmd));
+sub update_last_commit {
+       my ($self, $sync, $stk) = @_;
+       my $unit = $sync->{unit} // return;
+       my $latest_cmt = $stk ? $stk->{latest_cmt} : ${$sync->{latest_cmt}};
+       defined($latest_cmt) or return;
+       my $last = last_epoch_commit($self, $unit->{epoch});
+       if (defined $last && is_ancestor($self->git, $last, $latest_cmt)) {
+               my @cmd = (qw(rev-list --count), "$last..$latest_cmt");
+               chomp(my $n = $unit->{git}->qx(@cmd));
                return if $n ne '' && $n == 0;
        }
-       last_epoch_commit($self, $i, $cmt);
+       last_epoch_commit($self, $unit->{epoch}, $latest_cmt);
 }
 
-sub git_dir_n ($$) { "$_[0]->{ibx}->{inboxdir}/git/$_[1].git" }
-
-sub last_commits ($$) {
-       my ($self, $epoch_max) = @_;
+sub last_commits {
+       my ($self, $sync) = @_;
        my $heads = [];
-       for (my $i = $epoch_max; $i >= 0; $i--) {
+       for (my $i = $sync->{epoch_max}; $i >= 0; $i--) {
                $heads->[$i] = last_epoch_commit($self, $i);
        }
        $heads;
 }
 
 # returns a revision range for git-log(1)
-sub log_range ($$$$$) {
-       my ($self, $sync, $git, $i, $tip) = @_;
+sub log_range ($$$) {
+       my ($sync, $unit, $tip) = @_;
        my $opt = $sync->{-opt};
        my $pr = $opt->{-progress} if (($opt->{verbose} || 0) > 1);
+       my $i = $unit->{epoch};
        my $cur = $sync->{ranges}->[$i] or do {
-               $pr->("$i.git indexing all of $tip") if $pr;
+               $pr->("$i.git indexing all of $tip\n") if $pr;
                return $tip; # all of it
        };
 
@@ -1010,7 +1017,8 @@ sub log_range ($$$$$) {
 
        my $range = "$cur..$tip";
        $pr->("$i.git checking contiguity... ") if $pr;
-       if (is_ancestor($git, $cur, $tip)) { # common case
+       my $git = $unit->{git};
+       if (is_ancestor($sync->{self}->git, $cur, $tip)) { # common case
                $pr->("OK\n") if $pr;
                my $n = $git->qx(qw(rev-list --count), $range);
                chomp($n);
@@ -1035,63 +1043,103 @@ Rewritten history? (in $git->{git_dir})
                        warn "discarding history at $cur\n";
                }
                warn <<"";
-reindexing $git->{git_dir} starting at
-$range
-
-               $sync->{unindex_range}->{$i} = "$base..$cur";
+reindexing $git->{git_dir}
+starting at $range
+
+               # $cur^0 may no longer exist if pruned by git
+               if ($git->qx(qw(rev-parse -q --verify), "$cur^0")) {
+                       $unit->{unindex_range} = "$base..$cur";
+               } elsif ($base && $git->qx(qw(rev-parse -q --verify), $base)) {
+                       $unit->{unindex_range} = "$base..";
+               } else {
+                       warn "W: unable to unindex before $range\n";
+               }
        }
        $range;
 }
 
-sub sync_prepare ($$$) {
-       my ($self, $sync, $epoch_max) = @_;
+# overridden by ExtSearchIdx
+sub artnum_max { $_[0]->{mm}->num_highwater }
+
+sub sync_prepare ($$) {
+       my ($self, $sync) = @_;
+       $sync->{ranges} = sync_ranges($self, $sync);
        my $pr = $sync->{-opt}->{-progress};
        my $regen_max = 0;
-       my $head = $self->{ibx}->{ref_head} || 'refs/heads/master';
-
-       # reindex stops at the current heads and we later rerun index_sync
-       # without {reindex}
-       my $reindex_heads = last_commits($self, $epoch_max) if $sync->{reindex};
-
-       for (my $i = $epoch_max; $i >= 0; $i--) {
-               my $git_dir = git_dir_n($self, $i);
+       my $head = $sync->{ibx}->{ref_head} || 'HEAD';
+       my $pfx;
+       if ($pr) {
+               ($pfx) = ($sync->{ibx}->{inboxdir} =~ m!([^/]+)\z!g);
+               $pfx //= $sync->{ibx}->{inboxdir};
+       }
+
+       my $reindex_heads;
+       if ($self->{ibx_map}) {
+               # ExtSearchIdx won't index messages unless they're in
+               # over.sqlite3 for a given inbox, so don't read beyond
+               # what's in the per-inbox index.
+               $reindex_heads = [];
+               my $v = PublicInbox::Search::SCHEMA_VERSION;
+               my $mm = $sync->{ibx}->mm;
+               for my $i (0..$sync->{epoch_max}) {
+                       $reindex_heads->[$i] = $mm->last_commit_xap($v, $i);
+               }
+       } elsif ($sync->{reindex}) { # V2 inbox
+               # reindex stops at the current heads and we later
+               # rerun index_sync without {reindex}
+               $reindex_heads = $self->last_commits($sync);
+       }
+       if ($sync->{max_size} = $sync->{-opt}->{max_size}) {
+               $sync->{index_oid} = $self->can('index_oid');
+       }
+       my $git_pfx = "$sync->{ibx}->{inboxdir}/git";
+       for (my $i = $sync->{epoch_max}; $i >= 0; $i--) {
+               my $git_dir = "$git_pfx/$i.git";
                -d $git_dir or next; # missing epochs are fine
                my $git = PublicInbox::Git->new($git_dir);
+               my $unit = { git => $git, epoch => $i };
+               my $tip;
                if ($reindex_heads) {
-                       $head = $reindex_heads->[$i] or next;
+                       $tip = $head = $reindex_heads->[$i] or next;
+               } else {
+                       $tip = $git->qx(qw(rev-parse -q --verify), $head);
+                       next if $?; # new repo
+                       chomp $tip;
                }
-               chomp(my $tip = $git->qx(qw(rev-parse -q --verify), $head));
-
-               next if $?; # new repo
-               my $range = log_range($self, $sync, $git, $i, $tip) or next;
+               my $range = log_range($sync, $unit, $tip) or next;
                # can't use 'rev-list --count' if we use --diff-filter
-               $pr->("$i.git counting $range ... ") if $pr;
+               $pr->("$pfx $i.git counting $range ... ") if $pr;
                # Don't bump num_highwater on --reindex by using {D}.
                # We intentionally do NOT use {D} in the non-reindex case
                # because we want NNTP article number gaps from unindexed
                # messages to show up in mirrors, too.
                $sync->{D} //= $sync->{reindex} ? {} : undef; # OID_BIN => NR
-               my $stk = log2stack($sync, $git, $range, $self->{ibx});
+               my $stk = log2stack($sync, $git, $range);
+               return 0 if $sync->{quit};
                my $nr = $stk ? $stk->num_records : 0;
                $pr->("$nr\n") if $pr;
-               $sync->{stacks}->[$i] = $stk if $stk;
+               $unit->{stack} = $stk; # may be undef
+               unshift @{$sync->{todo}}, $unit;
                $regen_max += $nr;
        }
+       return 0 if $sync->{quit};
 
        # XXX this should not happen unless somebody bypasses checks in
        # our code and blindly injects "d" file history into git repos
        if (my @leftovers = keys %{delete($sync->{D}) // {}}) {
                warn('W: unindexing '.scalar(@leftovers)." leftovers\n");
-               my $arg = { v2w => $self };
-               my $all = $self->{ibx}->git;
+               local $self->{current_info} = 'leftover ';
+               my $unindex_oid = $self->can('unindex_oid');
                for my $oid (@leftovers) {
+                       last if $sync->{quit};
                        $oid = unpack('H*', $oid);
-                       $self->{current_info} = "leftover $oid";
-                       $all->cat_async($oid, \&unindex_oid, $arg);
+                       my $req = { %$sync, oid => $oid };
+                       $self->git->cat_async($oid, $unindex_oid, $req);
                }
-               $all->cat_async_wait;
+               $self->git->cat_async_wait;
        }
-       if (!$regen_max && !keys(%{$self->{unindex_range}})) {
+       return 0 if $sync->{quit};
+       if (!$regen_max) {
                $sync->{-regen_fmt} = "%u/?\n";
                return 0;
        }
@@ -1102,30 +1150,33 @@ sub sync_prepare ($$$) {
        $sync->{-regen_fmt} = "% ${pad}u/$regen_max\n";
        $sync->{nr} = \(my $nr = 0);
        return -1 if $sync->{reindex};
-       $regen_max + $self->{mm}->num_highwater() || 0;
+       $regen_max + $self->artnum_max || 0;
 }
 
-sub unindex_oid_remote ($$$) {
+sub unindex_oid_aux ($$$) {
        my ($self, $oid, $mid) = @_;
-       my @removed = $self->{over}->remove_oid($oid, $mid);
+       my @removed = $self->{oidx}->remove_oid($oid, $mid);
        for my $num (@removed) {
-               my $idx = idx_shard($self, $num % $self->{shards});
-               $idx->remote_remove($oid, $num);
+               my $idx = idx_shard($self, $num);
+               $idx->shard_remove($num);
        }
 }
 
 sub unindex_oid ($$;$) { # git->cat_async callback
-       my ($bref, $oid, $type, $size, $sync) = @_;
-       my $self = $sync->{v2w};
-       my $unindexed = $sync->{in_unindex} ? $sync->{unindexed} : undef;
+       my ($bref, $oid, $type, $size, $arg) = @_;
+       is_bad_blob($oid, $type, $size, $arg->{oid}) and
+               return index_finalize($arg, 0);
+       my $self = $arg->{self};
+       local $self->{current_info} = "$self->{current_info} $oid";
+       my $unindexed = $arg->{in_unindex} ? $arg->{unindexed} : undef;
        my $mm = $self->{mm};
        my $mids = mids(PublicInbox::Eml->new($bref));
        undef $$bref;
-       my $over = $self->{over};
+       my $oidx = $self->{oidx};
        foreach my $mid (@$mids) {
                my %gone;
                my ($id, $prev);
-               while (my $smsg = $over->next_by_mid($mid, \$id, \$prev)) {
+               while (my $smsg = $oidx->next_by_mid($mid, \$id, \$prev)) {
                        $gone{$smsg->{num}} = 1 if $oid eq $smsg->{blob};
                }
                my $n = scalar(keys(%gone)) or next;
@@ -1140,43 +1191,46 @@ sub unindex_oid ($$;$) { # git->cat_async callback
                        }
                        $mm->num_delete($num);
                }
-               unindex_oid_remote($self, $oid, $mid);
+               unindex_oid_aux($self, $oid, $mid);
        }
+       index_finalize($arg, 0);
 }
 
+sub git { $_[0]->{ibx}->git }
+
 # this is rare, it only happens when we get discontiguous history in
 # a mirror because the source used -purge or -edit
-sub unindex ($$$$) {
-       my ($self, $sync, $git, $unindex_range) = @_;
+sub unindex_todo ($$$) {
+       my ($self, $sync, $unit) = @_;
+       my $unindex_range = delete($unit->{unindex_range}) // return;
        my $unindexed = $sync->{unindexed} //= {}; # $mid0 => $num
        my $before = scalar keys %$unindexed;
        # order does not matter, here:
-       my @cmd = qw(log --raw -r
-                       --no-notes --no-color --no-abbrev --no-renames);
-       my $fh = $git->popen(@cmd, $unindex_range);
-       my $all = $self->{ibx}->git;
+       my $fh = $unit->{git}->popen(qw(log --raw -r --no-notes --no-color
+                               --no-abbrev --no-renames), $unindex_range);
        local $sync->{in_unindex} = 1;
+       my $unindex_oid = $self->can('unindex_oid');
        while (<$fh>) {
                /\A:\d{6} 100644 $OID ($OID) [AM]\tm$/o or next;
-               $all->cat_async($1, \&unindex_oid, $sync);
+               $self->git->cat_async($1, $unindex_oid, { %$sync, oid => $1 });
        }
        close $fh or die "git log failed: \$?=$?";
-       $all->cat_async_wait;
+       $self->git->cat_async_wait;
 
        return unless $sync->{-opt}->{prune};
        my $after = scalar keys %$unindexed;
        return if $before == $after;
 
        # ensure any blob can not longer be accessed via dumb HTTP
-       PublicInbox::Import::run_die(['git', "--git-dir=$git->{git_dir}",
+       PublicInbox::Import::run_die(['git',
+               "--git-dir=$unit->{git}->{git_dir}",
                qw(-c gc.reflogExpire=now gc --prune=all --quiet)]);
 }
 
-sub sync_ranges ($$$) {
-       my ($self, $sync, $epoch_max) = @_;
+sub sync_ranges ($$) {
+       my ($self, $sync) = @_;
        my $reindex = $sync->{reindex};
-
-       return last_commits($self, $epoch_max) unless $reindex;
+       return $self->last_commits($sync) unless $reindex;
        return [] if ref($reindex) ne 'HASH';
 
        my $ranges = $reindex->{from}; # arrayref;
@@ -1188,8 +1242,8 @@ sub sync_ranges ($$$) {
 
 sub index_xap_only { # git->cat_async callback
        my ($bref, $oid, $type, $size, $smsg) = @_;
-       my $self = $smsg->{v2w};
-       my $idx = idx_shard($self, $smsg->{num} % $self->{shards});
+       my $self = $smsg->{self};
+       my $idx = idx_shard($self, $smsg->{num});
        $smsg->{raw_bytes} = $size;
        $idx->index_raw($bref, undef, $smsg);
        $self->{transact_bytes} += $size;
@@ -1206,54 +1260,70 @@ sub index_xap_step ($$$;$) {
                $pr->("Xapian indexlevel=$ibx->{indexlevel} ".
                        "$beg..$end (% $step)\n");
        }
-       my $batch_bytes = batch_bytes($self);
        for (my $num = $beg; $num <= $end; $num += $step) {
+               last if $sync->{quit};
                my $smsg = $ibx->over->get_art($num) or next;
-               $smsg->{v2w} = $self;
+               $smsg->{self} = $self;
                $ibx->git->cat_async($smsg->{blob}, \&index_xap_only, $smsg);
-               if ($self->{transact_bytes} >= $batch_bytes) {
+               if ($self->{transact_bytes} >= $self->{batch_bytes}) {
                        ${$sync->{nr}} = $num;
                        reindex_checkpoint($self, $sync);
                }
        }
 }
 
-sub index_epoch ($$$) {
-       my ($self, $sync, $i) = @_;
-
-       my $git_dir = git_dir_n($self, $i);
-       -d $git_dir or return; # missing epochs are fine
-       my $git = PublicInbox::Git->new($git_dir);
-       if (my $unindex_range = delete $sync->{unindex_range}->{$i}) { # rare
-               unindex($self, $sync, $git, $unindex_range);
-       }
-       defined(my $stk = $sync->{stacks}->[$i]) or return;
-       $sync->{stacks}->[$i] = undef;
-       my $all = $self->{ibx}->git;
-       while (my ($f, $at, $ct, $oid) = $stk->pop_rec) {
-               $self->{current_info} = "$i.git $oid";
+sub index_todo ($$$) {
+       my ($self, $sync, $unit) = @_;
+       return if $sync->{quit};
+       unindex_todo($self, $sync, $unit);
+       my $stk = delete($unit->{stack}) or return;
+       my $all = $self->git;
+       my $index_oid = $self->can('index_oid');
+       my $unindex_oid = $self->can('unindex_oid');
+       my $pfx;
+       if ($unit->{git}->{git_dir} =~ m!/([^/]+)/git/([0-9]+\.git)\z!) {
+               $pfx = "$1 $2"; # v2
+       } else { # v1
+               ($pfx) = ($unit->{git}->{git_dir} =~ m!/([^/]+)\z!g);
+               $pfx //= $unit->{git}->{git_dir};
+       }
+       local $self->{current_info} = "$pfx ";
+       local $sync->{latest_cmt} = \(my $latest_cmt);
+       local $sync->{unit} = $unit;
+       while (my ($f, $at, $ct, $oid, $cmt) = $stk->pop_rec) {
+               if ($sync->{quit}) {
+                       warn "waiting to quit...\n";
+                       $all->async_wait_all;
+                       $self->update_last_commit($sync);
+                       return;
+               }
+               my $req = {
+                       %$sync,
+                       autime => $at,
+                       cotime => $ct,
+                       oid => $oid,
+                       cur_cmt => $cmt
+               };
                if ($f eq 'm') {
-                       my $arg = { %$sync, autime => $at, cotime => $ct };
-                       if ($sync->{index_max_size}) {
-                               $all->check_async($oid, \&check_size, $arg);
+                       if ($sync->{max_size}) {
+                               $all->check_async($oid, \&check_size, $req);
                        } else {
-                               $all->cat_async($oid, \&index_oid, $arg);
+                               $all->cat_async($oid, $index_oid, $req);
                        }
                } elsif ($f eq 'd') {
-                       $all->cat_async($oid, \&unindex_oid, $sync);
+                       $all->cat_async($oid, $unindex_oid, $req);
                }
                if (${$sync->{need_checkpoint}}) {
                        reindex_checkpoint($self, $sync);
                }
        }
-       $all->check_async_wait;
-       $all->cat_async_wait;
-       update_last_commit($self, $git, $i, $stk->{latest_cmt});
+       $all->async_wait_all;
+       $self->update_last_commit($sync, $stk);
 }
 
 sub xapian_only {
        my ($self, $opt, $sync, $art_beg) = @_;
-       my $seq = $opt->{sequentialshard};
+       my $seq = $opt->{sequential_shard};
        $art_beg //= 0;
        local $self->{parallel} = 0 if $seq;
        $self->idx_init($opt); # acquire lock
@@ -1261,52 +1331,69 @@ sub xapian_only {
                $sync //= {
                        need_checkpoint => \(my $bool = 0),
                        -opt => $opt,
-                       v2w => $self,
+                       self => $self,
                        nr => \(my $nr = 0),
                        -regen_fmt => "%u/?\n",
                };
                $sync->{art_end} = $art_end;
                if ($seq || !$self->{parallel}) {
                        my $shard_end = $self->{shards} - 1;
-                       for (0..$shard_end) {
-                               index_xap_step($self, $sync, $art_beg + $_)
+                       for my $i (0..$shard_end) {
+                               last if $sync->{quit};
+                               index_xap_step($self, $sync, $art_beg + $i);
+                               if ($i != $shard_end) {
+                                       reindex_checkpoint($self, $sync);
+                               }
                        }
                } else { # parallel (maybe)
                        index_xap_step($self, $sync, $art_beg, 1);
                }
        }
-       $self->{ibx}->git->cat_async_wait;
+       $self->git->cat_async_wait;
        $self->done;
 }
 
 # public, called by public-inbox-index
 sub index_sync {
        my ($self, $opt) = @_;
-       $opt //= $_[1] //= {};
-       goto \&xapian_only if $opt->{xapianonly};
+       $opt //= {};
+       return xapian_only($self, $opt) if $opt->{xapian_only};
 
-       my $pr = $opt->{-progress};
        my $epoch_max;
-       my $latest = git_dir_latest($self, \$epoch_max);
-       return unless defined $latest;
+       my $latest = $self->{ibx}->git_dir_latest(\$epoch_max) // return;
+       if ($opt->{'fast-noop'}) { # nanosecond (st_ctim) comparison
+               use Time::HiRes qw(stat);
+               if (my @mm = stat("$self->{ibx}->{inboxdir}/msgmap.sqlite3")) {
+                       my $c = $mm[10]; # 10 = ctime (nsec NV)
+                       my @hd = stat("$latest/refs/heads");
+                       my @pr = stat("$latest/packed-refs");
+                       return if $c > ($hd[10] // 0) && $c > ($pr[10] // 0);
+               }
+       }
 
-       my $seq = $opt->{sequentialshard};
+       my $pr = $opt->{-progress};
+       my $seq = $opt->{sequential_shard};
        my $art_beg; # the NNTP article number we start xapian_only at
        my $idxlevel = $self->{ibx}->{indexlevel};
        local $self->{ibx}->{indexlevel} = 'basic' if $seq;
 
        $self->idx_init($opt); # acquire lock
        fill_alternates($self, $epoch_max);
-       $self->{over}->rethread_prepare($opt);
+       $self->{oidx}->rethread_prepare($opt);
        my $sync = {
                need_checkpoint => \(my $bool = 0),
-               unindex_range => {}, # EPOCH => oid_old..oid_new
                reindex => $opt->{reindex},
                -opt => $opt,
-               v2w => $self,
+               self => $self,
+               ibx => $self->{ibx},
+               epoch_max => $epoch_max,
        };
-       $sync->{ranges} = sync_ranges($self, $sync, $epoch_max);
-       if (sync_prepare($self, $sync, $epoch_max)) {
+       my $quit = PublicInbox::SearchIdx::quit_cb($sync);
+       local $SIG{QUIT} = $quit;
+       local $SIG{INT} = $quit;
+       local $SIG{TERM} = $quit;
+
+       if (sync_prepare($self, $sync)) {
                # tmp_clone seems to fail if inside a transaction, so
                # we rollback here (because we opened {mm} for reading)
                # Note: we do NOT rely on DBI transactions for atomicity;
@@ -1318,16 +1405,13 @@ sub index_sync {
 
                # xapian_only works incrementally w/o --reindex
                if ($seq && !$opt->{reindex}) {
-                       $art_beg = $sync->{mm_tmp}->max;
-                       $art_beg++ if defined($art_beg);
+                       $art_beg = $sync->{mm_tmp}->max || -1;
+                       $art_beg++;
                }
        }
-       if ($sync->{index_max_size} = $self->{ibx}->{index_max_size}) {
-               $sync->{index_oid} = \&index_oid;
-       }
        # work forwards through history
-       index_epoch($self, $sync, $_) for (0..$epoch_max);
-       $self->{over}->rethread_done($opt);
+       index_todo($self, $sync, $_) for @{delete($sync->{todo}) // []};
+       $self->{oidx}->rethread_done($opt) unless $sync->{quit};
        $self->done;
 
        if (my $nr = $sync->{nr}) {
@@ -1335,19 +1419,42 @@ sub index_sync {
                $pr->('all.git '.sprintf($sync->{-regen_fmt}, $$nr)) if $pr;
        }
 
+       my $quit_warn;
        # deal with Xapian shards sequentially
        if ($seq && delete($sync->{mm_tmp})) {
-               $self->{ibx}->{indexlevel} = $idxlevel;
-               xapian_only($self, $opt, $sync, $art_beg);
+               if ($sync->{quit}) {
+                       $quit_warn = 1;
+               } else {
+                       $self->{ibx}->{indexlevel} = $idxlevel;
+                       xapian_only($self, $opt, $sync, $art_beg);
+                       $quit_warn = 1 if $sync->{quit};
+               }
+       }
+
+       # --reindex on the command-line
+       if (!$sync->{quit} && $opt->{reindex} &&
+                       !ref($opt->{reindex}) && $idxlevel ne 'basic') {
+               $self->lock_acquire;
+               my $s0 = PublicInbox::SearchIdx->new($self->{ibx}, 0, 0);
+               if (my $xdb = $s0->idx_acquire) {
+                       my $n = $xdb->get_metadata('has_threadid');
+                       $xdb->set_metadata('has_threadid', '1') if $n ne '1';
+               }
+               $s0->idx_release;
+               $self->lock_release;
        }
 
        # reindex does not pick up new changes, so we rerun w/o it:
-       if ($opt->{reindex}) {
+       if ($opt->{reindex} && !$sync->{quit}) {
                my %again = %$opt;
                $sync = undef;
                delete @again{qw(rethread reindex -skip_lock)};
                index_sync($self, \%again);
+               $opt->{quit} = $again{quit}; # propagate to caller
        }
+       warn <<EOF if $quit_warn;
+W: interrupted, --xapian-only --reindex required upon restart
+EOF
 }
 
 1;