]> Sergey Matveev's repositories - public-inbox.git/blobdiff - lib/PublicInbox/Xapcmd.pm
admin|xapcmd: user-facing messages say "shard"
[public-inbox.git] / lib / PublicInbox / Xapcmd.pm
index 488c6165c3d03af5323f3b8383ff47b1844c8970..e303da9e8ccd339381614e8a85c5f813b93c129e 100644 (file)
@@ -13,35 +13,70 @@ use File::Basename qw(dirname);
 # support testing with dev versions of Xapian which installs
 # commands with a version number suffix (e.g. "xapian-compact-1.5")
 our $XAPIAN_COMPACT = $ENV{XAPIAN_COMPACT} || 'xapian-compact';
+our @COMPACT_OPT = qw(jobs|j=i quiet|q blocksize|b=s no-full|n fuller|F);
 
 sub commit_changes ($$$) {
        my ($ibx, $tmp, $opt) = @_;
-
+       my $new_parts = $opt->{reshard};
        my $reindex = $opt->{reindex};
        my $im = $ibx->importer(0);
        $im->lock_acquire if !$opt->{-coarse_lock};
 
+       $SIG{INT} or die 'BUG: $SIG{INT} not handled';
+       my @old_part;
+
        while (my ($old, $new) = each %$tmp) {
-               my @st = stat($old) or die "failed to stat($old): $!\n";
+               my @st = stat($old);
+               if (!@st && !defined($opt->{reshard})) {
+                       die "failed to stat($old): $!";
+               }
 
                my $over = "$old/over.sqlite3";
                if (-f $over) { # only for v1, v2 over is untouched
+                       defined $new or die "BUG: $over exists when culling v2";
                        $over = PublicInbox::Over->new($over);
                        my $tmp_over = "$new/over.sqlite3";
                        $over->connect->sqlite_backup_to_file($tmp_over);
                        $over = undef;
                }
-               chmod($st[2] & 07777, $new) or die "chmod $old: $!\n";
 
+               if (!defined($new)) { # culled partition
+                       push @old_part, $old;
+                       next;
+               }
+
+               if (@st) {
+                       chmod($st[2] & 07777, $new) or die "chmod $old: $!\n";
+                       rename($old, "$new/old") or
+                                       die "rename $old => $new/old: $!\n";
+               }
                # Xtmpdir->DESTROY won't remove $new after this:
-               rename($old, "$new/old") or die "rename $old => $new/old: $!\n";
                rename($new, $old) or die "rename $new => $old: $!\n";
-               my $prev = "$old/old";
-               remove_tree($prev) or die "failed to remove $prev: $!\n";
+               if (@st) {
+                       my $prev = "$old/old";
+                       remove_tree($prev) or
+                               die "failed to remove $prev: $!\n";
+               }
        }
+       remove_tree(@old_part);
        $tmp->done;
        if (!$opt->{-coarse_lock}) {
                $opt->{-skip_lock} = 1;
+
+               if ($im->can('count_partitions')) {
+                       my $pr = $opt->{-progress};
+                       my $n = $im->count_partitions;
+                       if (defined $new_parts && $n != $new_parts) {
+                               die
+"BUG: counted $n shards after resharding to $new_parts";
+                       }
+                       my $prev = $im->{partitions};
+                       if ($pr && $prev != $n) {
+                               $pr->("shard count changed: $prev => $n\n");
+                               $im->{partitions} = $n;
+                       }
+               }
+
                PublicInbox::Admin::index_inbox($ibx, $opt);
                # implicit lock_release
        } else {
@@ -53,8 +88,7 @@ sub cb_spawn {
        my ($cb, $args, $opt) = @_; # $cb = cpdb() or compact()
        defined(my $pid = fork) or die "fork: $!";
        return $pid if $pid > 0;
-       eval { $cb->($args, $opt) };
-       die $@ if $@;
+       $cb->($args, $opt);
        exit 0;
 }
 
@@ -84,28 +118,41 @@ sub prepare_reindex ($$) {
        }
 }
 
-sub progress_prepare ($) {
-       my ($opt) = @_;
-       if ($opt->{quiet}) {
-               open my $null, '>', '/dev/null' or
-                       die "failed to open /dev/null: $!\n";
-               $opt->{1} = fileno($null);
-               $opt->{-dev_null} = $null;
-       } else {
-               $opt->{-progress} = sub { print STDERR @_ };
-       }
-}
-
 sub same_fs_or_die ($$) {
        my ($x, $y) = @_;
        return if ((stat($x))[0] == (stat($y))[0]); # 0 - st_dev
        die "$x and $y reside on different filesystems\n";
 }
 
+sub process_queue {
+       my ($queue, $cb, $max, $opt) = @_;
+       if ($max <= 1) {
+               while (defined(my $args = shift @$queue)) {
+                       $cb->($args, $opt);
+               }
+               return;
+       }
+
+       # run in parallel:
+       my %pids;
+       while (@$queue) {
+               while (scalar(keys(%pids)) < $max && scalar(@$queue)) {
+                       my $args = shift @$queue;
+                       $pids{cb_spawn($cb, $args, $opt)} = $args;
+               }
+
+               while (scalar keys %pids) {
+                       my $pid = waitpid(-1, 0);
+                       my $args = delete $pids{$pid};
+                       die join(' ', @$args)." failed: $?\n" if $?;
+               }
+       }
+}
+
 sub run {
        my ($ibx, $task, $opt) = @_; # task = 'cpdb' or 'compact'
        my $cb = \&${\"PublicInbox::Xapcmd::$task"};
-       progress_prepare($opt ||= {});
+       PublicInbox::Admin::progress_prepare($opt ||= {});
        my $dir = $ibx->{mainrepo} or die "no mainrepo in inbox\n";
        runnable_or_die($XAPIAN_COMPACT) if $opt->{compact};
        my $reindex; # v1:{ from => $x40 }, v2:{ from => [ $x40, $x40, .. ] } }
@@ -124,31 +171,59 @@ sub run {
        my $tmp = PublicInbox::Xtmpdirs->new;
        my $v = $ibx->{version} ||= 1;
        my @q;
+       my $new_parts = $opt->{reshard};
+       if (defined $new_parts && $new_parts <= 0) {
+               die "--reshard must be a positive number\n";
+       }
 
        # we want temporary directories to be as deep as possible,
-       # so v2 partitions can keep "xap$SCHEMA_VERSION" on a separate FS.
+       # so v2 shards can keep "xap$SCHEMA_VERSION" on a separate FS.
        if ($v == 1) {
+               if (defined $new_parts) {
+                       warn
+"--reshard=$new_parts ignored for v1 $ibx->{mainrepo}\n";
+               }
                my $old_parent = dirname($old);
                same_fs_or_die($old_parent, $old);
-               $tmp->{$old} = tempdir('xapcmd-XXXXXXXX', DIR => $old_parent);
-               push @q, [ $old, $tmp->{$old} ];
+               my $v = PublicInbox::Search::SCHEMA_VERSION();
+               my $wip = tempdir("xapian$v-XXXXXXXX", DIR => $old_parent);
+               $tmp->{$old} = $wip;
+               push @q, [ $old, $wip ];
        } else {
                opendir my $dh, $old or die "Failed to opendir $old: $!\n";
+               my @old_parts;
                while (defined(my $dn = readdir($dh))) {
-                       if ($dn =~ /\A\d+\z/) {
-                               my $tmpl = "$dn-XXXXXXXX";
-                               my $dst = tempdir($tmpl, DIR => $old);
-                               same_fs_or_die($old, $dst);
-                               my $cur = "$old/$dn";
-                               push @q, [ $cur, $dst ];
-                               $tmp->{$cur} = $dst;
+                       if ($dn =~ /\A[0-9]+\z/) {
+                               push @old_parts, $dn;
                        } elsif ($dn eq '.' || $dn eq '..') {
                        } elsif ($dn =~ /\Aover\.sqlite3/) {
                        } else {
                                warn "W: skipping unknown dir: $old/$dn\n"
                        }
                }
-               die "No Xapian parts found in $old\n" unless @q;
+               die "No Xapian parts found in $old\n" unless @old_parts;
+
+               my ($src, $max_part);
+               if (!defined($new_parts) || $new_parts == scalar(@old_parts)) {
+                       # 1:1 copy
+                       $max_part = scalar(@old_parts) - 1;
+               } else {
+                       # M:N copy
+                       $max_part = $new_parts - 1;
+                       $src = [ map { "$old/$_" } @old_parts ];
+               }
+               foreach my $dn (0..$max_part) {
+                       my $tmpl = "$dn-XXXXXXXX";
+                       my $wip = tempdir($tmpl, DIR => $old);
+                       same_fs_or_die($old, $wip);
+                       my $cur = "$old/$dn";
+                       push @q, [ $src // $cur , $wip ];
+                       $tmp->{$cur} = $wip;
+               }
+               # mark old parts to be unlinked
+               if ($src) {
+                       $tmp->{$_} ||= undef for @$src;
+               }
        }
        my $im = $ibx->importer(0);
        my $max = $opt->{jobs} || scalar(@q);
@@ -162,19 +237,7 @@ sub run {
                }
 
                delete($ibx->{$_}) for (qw(mm over search)); # cleanup
-               my %pids;
-               while (@q) {
-                       while (scalar(keys(%pids)) < $max && scalar(@q)) {
-                               my $args = shift @q;
-                               $pids{cb_spawn($cb, $args, $opt)} = $args;
-                       }
-
-                       while (scalar keys %pids) {
-                               my $pid = waitpid(-1, 0);
-                               my $args = delete $pids{$pid};
-                               die join(' ', @$args)." failed: $?\n" if $?;
-                       }
-               }
+               process_queue(\@q, $cb, $max, $opt);
                commit_changes($ibx, $tmp, $opt);
        });
 }
@@ -194,10 +257,11 @@ sub cpdb_retryable ($$) {
 }
 
 sub progress_pfx ($) {
-       my @p = split('/', $_[0]);
+       my ($wip) = @_; # tempdir v2: ([0-9])+-XXXXXXXX
+       my @p = split('/', $wip);
 
        # return "xap15/0" for v2, or "xapian15" for v1:
-       ($p[-1] =~ /\A\d+\z/) ? "$p[-2]/$p[-1]" : $p[-1];
+       ($p[-1] =~ /\A([0-9]+)/) ? "$p[-2]/$1" : $p[-1];
 }
 
 # xapian-compact wrapper
@@ -213,13 +277,19 @@ sub compact ($$) {
                defined(my $dfd = $opt->{$fd}) or next;
                $rdr->{$fd} = $dfd;
        }
-       if ($pr) {
-               $pr->("$pfx compacting...\n");
-               $rdr->{1} = fileno($w) if pipe($r, $w);
-       }
+       $rdr->{1} = fileno($w) if $pr && pipe($r, $w);
 
        # we rely on --no-renumber to keep docids synched to NNTP
-       my $cmd = [ $XAPIAN_COMPACT, '--no-renumber', $src, $dst ];
+       my $cmd = [ $XAPIAN_COMPACT, '--no-renumber' ];
+       for my $sw (qw(no-full fuller)) {
+               push @$cmd, "--$sw" if $opt->{$sw};
+       }
+       for my $sw (qw(blocksize)) {
+               defined(my $v = $opt->{$sw}) or next;
+               push @$cmd, "--$sw", $v;
+       }
+       $pr->("$pfx `".join(' ', @$cmd)."'\n") if $pr;
+       push @$cmd, $src, $dst;
        my $pid = spawn($cmd, undef, $rdr);
        if ($pr) {
                close $w or die "close: \$w: $!";
@@ -234,49 +304,36 @@ sub compact ($$) {
        }
 }
 
-# Like copydatabase(1), this is horribly slow; and it doesn't seem due
-# to the overhead of Perl.
-sub cpdb ($$) {
-       my ($args, $opt) = @_;
-       my ($old, $new) = @$args;
-       my $src = Search::Xapian::Database->new($old);
-       my $tmp = $opt->{compact} ? "$new.compact" : $new;
+sub cpdb_loop ($$$;$$) {
+       my ($src, $dst, $pr_data, $cur_part, $new_parts) = @_;
+       my ($pr, $fmt, $nr, $pfx);
+       if ($pr_data) {
+               $pr = $pr_data->{pr};
+               $fmt = $pr_data->{fmt};
+               $nr = \($pr_data->{nr});
+               $pfx = $pr_data->{pfx};
+       }
 
-       # like copydatabase(1), be sure we don't overwrite anything in case
-       # of other bugs:
-       my $creat = Search::Xapian::DB_CREATE();
-       my $dst = Search::Xapian::WritableDatabase->new($tmp, $creat);
        my ($it, $end);
-       my ($nr, $tot, $fmt); # progress output
-       my $pr = $opt->{-progress};
-       my $pfx = $opt->{-progress_pfx} = progress_pfx($old);
-
        do {
                eval {
-                       # update the only metadata key for v1:
-                       my $lc = $src->get_metadata('last_commit');
-                       $dst->set_metadata('last_commit', $lc) if $lc;
-
                        $it = $src->postlist_begin('');
                        $end = $src->postlist_end('');
-                       if ($pr) {
-                               $nr = 0;
-                               $tot = $src->get_doccount;
-                               $fmt = "$pfx % ".length($tot)."u/$tot\n";
-                               $pr->("$pfx copying $tot documents\n");
-                       }
                };
        } while (cpdb_retryable($src, $pfx));
 
        do {
                eval {
-                       while ($it != $end) {
+                       for (; $it != $end; $it++) {
                                my $docid = $it->get_docid;
+                               if (defined $new_parts) {
+                                       my $dst_part = $docid % $new_parts;
+                                       next if $dst_part != $cur_part;
+                               }
                                my $doc = $src->get_document($docid);
                                $dst->replace_document($docid, $doc);
-                               $it->inc;
-                               if ($pr && !(++$nr & 1023)) {
-                                       $pr->(sprintf($fmt, $nr));
+                               if ($pr_data && !(++$$nr  & 1023)) {
+                                       $pr->(sprintf($fmt, $$nr));
                                }
                        }
 
@@ -286,9 +343,101 @@ sub cpdb ($$) {
                        # (and public-inbox does not use those features)
                };
        } while (cpdb_retryable($src, $pfx));
+}
+
+# Like copydatabase(1), this is horribly slow; and it doesn't seem due
+# to the overhead of Perl.
+sub cpdb ($$) {
+       my ($args, $opt) = @_;
+       my ($old, $new) = @$args;
+       my ($src, $cur_part);
+       my $new_parts;
+       if (ref($old) eq 'ARRAY') {
+               ($cur_part) = ($new =~ m!xap[0-9]+/([0-9]+)\b!);
+               defined $cur_part or
+                       die "BUG: could not extract shard # from $new";
+               $new_parts = $opt->{reshard};
+               defined $new_parts or die 'BUG: got array src w/o --reshard';
+
+               # repartitioning, M:N copy means have full read access
+               foreach (@$old) {
+                       if ($src) {
+                               my $sub = Search::Xapian::Database->new($_);
+                               $src->add_database($sub);
+                       } else {
+                               $src = Search::Xapian::Database->new($_);
+                       }
+               }
+       } else {
+               $src = Search::Xapian::Database->new($old);
+       }
+
+       my ($xtmp, $tmp);
+       if ($opt->{compact}) {
+               my $newdir = dirname($new);
+               same_fs_or_die($newdir, $new);
+               $tmp = tempdir("$new.compact-XXXXXX", DIR => $newdir);
+               $xtmp = PublicInbox::Xtmpdirs->new;
+               $xtmp->{$new} = $tmp;
+       } else {
+               $tmp = $new;
+       }
+
+       # like copydatabase(1), be sure we don't overwrite anything in case
+       # of other bugs:
+       my $creat = Search::Xapian::DB_CREATE();
+       my $dst = Search::Xapian::WritableDatabase->new($tmp, $creat);
+       my $pr = $opt->{-progress};
+       my $pfx = $opt->{-progress_pfx} = progress_pfx($new);
+       my $pr_data = { pr => $pr, pfx => $pfx, nr => 0 } if $pr;
+
+       do {
+               eval {
+                       # update the only metadata key for v1:
+                       my $lc = $src->get_metadata('last_commit');
+                       $dst->set_metadata('last_commit', $lc) if $lc;
+
+                       # only the first xapian partition (0) gets 'indexlevel'
+                       if ($new =~ m!(?:xapian[0-9]+|xap[0-9]+/0)\b!) {
+                               my $l = $src->get_metadata('indexlevel');
+                               if ($l eq 'medium') {
+                                       $dst->set_metadata('indexlevel', $l);
+                               }
+                       }
+                       if ($pr_data) {
+                               my $tot = $src->get_doccount;
+
+                               # we can only estimate when repartitioning,
+                               # because removed spam causes slight imbalance
+                               my $est = '';
+                               if (defined $cur_part && $new_parts > 1) {
+                                       $tot = int($tot/$new_parts);
+                                       $est = 'around ';
+                               }
+                               my $fmt = "$pfx % ".length($tot)."u/$tot\n";
+                               $pr->("$pfx copying $est$tot documents\n");
+                               $pr_data->{fmt} = $fmt;
+                               $pr_data->{total} = $tot;
+                       }
+               };
+       } while (cpdb_retryable($src, $pfx));
 
-       $pr->(sprintf($fmt, $nr)) if $pr;
-       return unless $opt->{compact};
+       if (defined $new_parts) {
+               # we rely on document IDs matching NNTP article number,
+               # so we can't have the combined DB support rewriting
+               # document IDs.  Thus we iterate through each shard
+               # individually.
+               $src = undef;
+               foreach (@$old) {
+                       my $old = Search::Xapian::Database->new($_);
+                       cpdb_loop($old, $dst, $pr_data, $cur_part, $new_parts);
+               }
+       } else {
+               cpdb_loop($src, $dst, $pr_data);
+       }
+
+       $pr->(sprintf($pr_data->{fmt}, $pr_data->{nr})) if $pr;
+       return unless $xtmp;
 
        $src = $dst = undef; # flushes and closes
 
@@ -296,6 +445,7 @@ sub cpdb ($$) {
        # since $dst isn't readable by HTTP or NNTP clients, yet:
        compact([ $tmp, $new ], $opt);
        remove_tree($tmp) or die "failed to remove $tmp: $!\n";
+       $xtmp->done;
 }
 
 # slightly easier-to-manage manage than END{} blocks
@@ -317,7 +467,12 @@ sub new {
 sub done {
        my ($self) = @_;
        delete $owner{"$self"};
-       $SIG{INT} = $SIG{HUP} = $SIG{PIPE} = $SIG{TERM} = 'DEFAULT';
+
+       my %known_pids;
+       $known_pids{$_}++ foreach values %owner;
+       if (!$known_pids{$$}) {
+               $SIG{INT} = $SIG{HUP} = $SIG{PIPE} = $SIG{TERM} = 'DEFAULT';
+       }
        %$self = ();
 }
 
@@ -326,9 +481,10 @@ sub DESTROY {
        my $owner_pid = delete $owner{"$self"} or return;
        return if $owner_pid != $$;
        foreach my $new (values %$self) {
+               defined $new or next; # may be undef if repartitioning
                remove_tree($new) unless -d "$new/old";
        }
-       $SIG{INT} = $SIG{HUP} = $SIG{PIPE} = $SIG{TERM} = 'DEFAULT';
+       done($self);
 }
 
 1;