]> Sergey Matveev's repositories - public-inbox.git/blobdiff - lib/PublicInbox/V2Writable.pm
run update-copyrights from gnulib for 2019
[public-inbox.git] / lib / PublicInbox / V2Writable.pm
index 76844cd45a0f046b91a35263e9de046899f37f77..45250923d3325e07aafaf4bb8c2f01fa2ac55a11 100644 (file)
@@ -1,4 +1,4 @@
-# Copyright (C) 2018 all contributors <meta@public-inbox.org>
+# Copyright (C) 2018-2019 all contributors <meta@public-inbox.org>
 # License: AGPL-3.0+ <https://www.gnu.org/licenses/agpl-3.0.txt>
 
 # This interface wraps and mimics PublicInbox::Import
@@ -7,11 +7,11 @@ package PublicInbox::V2Writable;
 use strict;
 use warnings;
 use base qw(PublicInbox::Lock);
-use PublicInbox::SearchIdxPart;
+use PublicInbox::SearchIdxShard;
 use PublicInbox::MIME;
 use PublicInbox::Git;
 use PublicInbox::Import;
-use PublicInbox::MID qw(mids);
+use PublicInbox::MID qw(mids references);
 use PublicInbox::ContentId qw(content_id content_digest);
 use PublicInbox::Inbox;
 use PublicInbox::OverIdx;
@@ -23,8 +23,15 @@ use IO::Handle;
 # an estimate of the post-packed size to the raw uncompressed size
 my $PACKING_FACTOR = 0.4;
 
-# assume 2 cores if GNU nproc(1) is not available
-sub nproc_parts ($) {
+# SATA storage lags behind what CPUs are capable of, so relying on
+# nproc(1) can be misleading and having extra Xapian shards is a
+# waste of FDs and space.  It can also lead to excessive IO latency
+# and slow things down.  Users on NVME or other fast storage can
+# use the NPROC env or switches in our script/public-inbox-* programs
+# to increase Xapian shards
+our $NPROC_MAX_DEFAULT = 4;
+
+sub nproc_shards ($) {
        my ($creat_opt) = @_;
        if (ref($creat_opt) eq 'HASH') {
                if (defined(my $n = $creat_opt->{nproc})) {
@@ -32,30 +39,37 @@ sub nproc_parts ($) {
                }
        }
 
-       my $n = int($ENV{NPROC} || `nproc 2>/dev/null` || 2);
+       my $n = $ENV{NPROC};
+       if (!$n) {
+               chomp($n = `nproc 2>/dev/null`);
+               # assume 2 cores if GNU nproc(1) is not available
+               $n = 2 if !$n;
+               $n = $NPROC_MAX_DEFAULT if $n > $NPROC_MAX_DEFAULT;
+       }
+
        # subtract for the main process and git-fast-import
        $n -= 1;
        $n < 1 ? 1 : $n;
 }
 
-sub count_partitions ($) {
+sub count_shards ($) {
        my ($self) = @_;
-       my $nparts = 0;
+       my $n = 0;
        my $xpfx = $self->{xpfx};
 
-       # always load existing partitions in case core count changes:
-       # Also, partition count may change while -watch is running
-       # due to -compact
+       # always load existing shards in case core count changes:
+       # Also, shard count may change while -watch is running
+       # due to "xcpdb --reshard"
        if (-d $xpfx) {
-               foreach my $part (<$xpfx/*>) {
-                       -d $part && $part =~ m!/\d+\z! or next;
+               foreach my $shard (<$xpfx/*>) {
+                       -d $shard && $shard =~ m!/[0-9]+\z! or next;
                        eval {
-                               Search::Xapian::Database->new($part)->close;
-                               $nparts++;
+                               Search::Xapian::Database->new($shard)->close;
+                               $n++;
                        };
                }
        }
-       $nparts;
+       $n;
 }
 
 sub new {
@@ -89,7 +103,7 @@ sub new {
                rotate_bytes => int((1024 * 1024 * 1024) / $PACKING_FACTOR),
                last_commit => [], # git repo -> commit
        };
-       $self->{partitions} = count_partitions($self) || nproc_parts($creat);
+       $self->{shards} = count_shards($self) || nproc_shards($creat);
        bless $self, $class;
 }
 
@@ -116,6 +130,16 @@ sub add {
        });
 }
 
+# indexes a message, returns true if checkpointing is needed
+sub do_idx ($$$$$$$) {
+       my ($self, $msgref, $mime, $len, $num, $oid, $mid0) = @_;
+       $self->{over}->add_overview($mime, $len, $num, $oid, $mid0);
+       my $idx = idx_shard($self, $num % $self->{shards});
+       $idx->index_raw($len, $msgref, $num, $oid, $mid0, $mime);
+       my $n = $self->{transact_bytes} += $len;
+       $n >= (PublicInbox::SearchIdx::BATCH_BYTES * $self->{shards});
+}
+
 sub _add {
        my ($self, $mime, $check_cb) = @_;
 
@@ -141,13 +165,7 @@ sub _add {
        $self->{last_commit}->[$self->{epoch_max}] = $cmt;
 
        my ($oid, $len, $msgref) = @{$im->{last_object}};
-       $self->{over}->add_overview($mime, $len, $num, $oid, $mid0);
-       my $nparts = $self->{partitions};
-       my $part = $num % $nparts;
-       my $idx = $self->idx_part($part);
-       $idx->index_raw($len, $msgref, $num, $oid, $mid0, $mime);
-       my $n = $self->{transact_bytes} += $len;
-       if ($n > (PublicInbox::SearchIdx::BATCH_BYTES * $nparts)) {
+       if (do_idx($self, $msgref, $mime, $len, $num, $oid, $mid0)) {
                $self->checkpoint;
        }
 
@@ -232,15 +250,15 @@ sub num_for_harder {
        $num;
 }
 
-sub idx_part {
-       my ($self, $part) = @_;
-       $self->{idx_parts}->[$part];
+sub idx_shard {
+       my ($self, $shard_i) = @_;
+       $self->{idx_shards}->[$shard_i];
 }
 
 # idempotent
 sub idx_init {
        my ($self, $opt) = @_;
-       return if $self->{idx_parts};
+       return if $self->{idx_shards};
        my $ibx = $self->{-inbox};
 
        # do not leak read-only FDs to child processes, we only have these
@@ -268,19 +286,19 @@ sub idx_init {
                $self->lock_acquire unless ($opt && $opt->{-skip_lock});
                $over->create;
 
-               # -compact can change partition count while -watch is idle
-               my $nparts = count_partitions($self);
-               if ($nparts && $nparts != $self->{partitions}) {
-                       $self->{partitions} = $nparts;
+               # xcpdb can change shard count while -watch is idle
+               my $nshards = count_shards($self);
+               if ($nshards && $nshards != $self->{shards}) {
+                       $self->{shards} = $nshards;
                }
 
-               # need to create all parts before initializing msgmap FD
-               my $max = $self->{partitions} - 1;
+               # need to create all shards before initializing msgmap FD
+               my $max = $self->{shards} - 1;
 
-               # idx_parts must be visible to all forked processes
-               my $idx = $self->{idx_parts} = [];
+               # idx_shards must be visible to all forked processes
+               my $idx = $self->{idx_shards} = [];
                for my $i (0..$max) {
-                       push @$idx, PublicInbox::SearchIdxPart->new($self, $i);
+                       push @$idx, PublicInbox::SearchIdxShard->new($self, $i);
                }
 
                # Now that all subprocesses are up, we can open the FDs
@@ -291,26 +309,30 @@ sub idx_init {
        });
 }
 
-sub purge_oids ($$) {
-       my ($self, $purge) = @_; # $purge = { $object_id => 1, ... }
+# returns an array mapping [ epoch => latest_commit ]
+# latest_commit may be undef if nothing was done to that epoch
+# $replace_map = { $object_id => $strref, ... }
+sub _replace_oids ($$$) {
+       my ($self, $mime, $replace_map) = @_;
        $self->done;
        my $pfx = "$self->{-inbox}->{mainrepo}/git";
-       my $purges = [];
+       my $rewrites = []; # epoch => commit
        my $max = $self->{epoch_max};
 
        unless (defined($max)) {
                defined(my $latest = git_dir_latest($self, \$max)) or return;
                $self->{epoch_max} = $max;
        }
+
        foreach my $i (0..$max) {
                my $git_dir = "$pfx/$i.git";
                -d $git_dir or next;
                my $git = PublicInbox::Git->new($git_dir);
                my $im = $self->import_init($git, 0, 1);
-               $purges->[$i] = $im->purge_oids($purge);
+               $rewrites->[$i] = $im->replace_oids($mime, $replace_map);
                $im->done;
        }
-       $purges;
+       $rewrites;
 }
 
 sub content_ids ($) {
@@ -333,25 +355,30 @@ sub content_matches ($$) {
        0
 }
 
-sub remove_internal ($$$$) {
-       my ($self, $mime, $cmt_msg, $purge) = @_;
+# used for removing or replacing (purging)
+sub rewrite_internal ($$;$$$) {
+       my ($self, $old_mime, $cmt_msg, $new_mime, $sref) = @_;
        $self->idx_init;
-       my $im = $self->importer unless $purge;
+       my ($im, $need_reindex, $replace_map);
+       if ($sref) {
+               $replace_map = {}; # oid => sref
+               $need_reindex = [] if $new_mime;
+       } else {
+               $im = $self->importer;
+       }
        my $over = $self->{over};
-       my $cids = content_ids($mime);
-       my $parts = $self->{idx_parts};
-       my $mm = $self->{mm};
+       my $cids = content_ids($old_mime);
        my $removed;
-       my $mids = mids($mime->header_obj);
+       my $mids = mids($old_mime->header_obj);
 
        # We avoid introducing new blobs into git since the raw content
        # can be slightly different, so we do not need the user-supplied
        # message now that we have the mids and content_id
-       $mime = undef;
+       $old_mime = undef;
        my $mark;
 
        foreach my $mid (@$mids) {
-               my %gone;
+               my %gone; # num => [ smsg, raw ]
                my ($id, $prev);
                while (my $smsg = $over->next_by_mid($mid, \$id, \$prev)) {
                        my $msg = get_blob($self, $smsg);
@@ -374,17 +401,21 @@ sub remove_internal ($$$$) {
                }
                foreach my $num (keys %gone) {
                        my ($smsg, $orig) = @{$gone{$num}};
-                       $mm->num_delete($num);
                        # $removed should only be set once assuming
                        # no bugs in our deduplication code:
                        $removed = $smsg;
                        my $oid = $smsg->{blob};
-                       if ($purge) {
-                               $purge->{$oid} = 1;
+                       if ($replace_map) {
+                               $replace_map->{$oid} = $sref;
                        } else {
                                ($mark, undef) = $im->remove($orig, $cmt_msg);
                        }
                        $orig = undef;
+                       if ($need_reindex) { # ->replace
+                               push @$need_reindex, $smsg;
+                       } else { # ->purge or ->remove
+                               $self->{mm}->num_delete($num);
+                       }
                        unindex_oid_remote($self, $oid, $mid);
                }
        }
@@ -393,8 +424,9 @@ sub remove_internal ($$$$) {
                my $cmt = $im->get_mark($mark);
                $self->{last_commit}->[$self->{epoch_max}] = $cmt;
        }
-       if ($purge && scalar keys %$purge) {
-               return purge_oids($self, $purge);
+       if ($replace_map && scalar keys %$replace_map) {
+               my $rewrites = _replace_oids($self, $new_mime, $replace_map);
+               return { rewrites => $rewrites, need_reindex => $need_reindex };
        }
        $removed;
 }
@@ -403,25 +435,128 @@ sub remove_internal ($$$$) {
 sub remove {
        my ($self, $mime, $cmt_msg) = @_;
        $self->{-inbox}->with_umask(sub {
-               remove_internal($self, $mime, $cmt_msg, undef);
+               rewrite_internal($self, $mime, $cmt_msg);
        });
 }
 
+sub _replace ($$;$$) {
+       my ($self, $old_mime, $new_mime, $sref) = @_;
+       my $rewritten = $self->{-inbox}->with_umask(sub {
+               rewrite_internal($self, $old_mime, undef, $new_mime, $sref);
+       }) or return;
+
+       my $rewrites = $rewritten->{rewrites};
+       # ->done is called if there are rewrites since we gc+prune from git
+       $self->idx_init if @$rewrites;
+
+       for my $i (0..$#$rewrites) {
+               defined(my $cmt = $rewrites->[$i]) or next;
+               $self->{last_commit}->[$i] = $cmt;
+       }
+       $rewritten;
+}
+
 # public
 sub purge {
        my ($self, $mime) = @_;
-       my $purges = $self->{-inbox}->with_umask(sub {
-               remove_internal($self, $mime, undef, {});
-       }) or return;
-       $self->idx_init if @$purges; # ->done is called on purges
-       for my $i (0..$#$purges) {
-               defined(my $cmt = $purges->[$i]) or next;
-               $self->{last_commit}->[$i] = $cmt;
+       my $rewritten = _replace($self, $mime, undef, \'') or return;
+       $rewritten->{rewrites}
+}
+
+# returns the git object_id of $fh, does not write the object to FS
+sub git_hash_raw ($$) {
+       my ($self, $raw) = @_;
+       # grab the expected OID we have to reindex:
+       open my $tmp_fh, '+>', undef or die "failed to open tmp: $!";
+       $tmp_fh->autoflush(1);
+       print $tmp_fh $$raw or die "print \$tmp_fh: $!";
+       sysseek($tmp_fh, 0, 0) or die "seek failed: $!";
+
+       my ($r, $w);
+       pipe($r, $w) or die "failed to create pipe: $!";
+       my $rdr = { 0 => fileno($tmp_fh), 1 => fileno($w) };
+       my $git_dir = $self->{-inbox}->git->{git_dir};
+       my $cmd = ['git', "--git-dir=$git_dir", qw(hash-object --stdin)];
+       my $pid = spawn($cmd, undef, $rdr);
+       close $w;
+       local $/ = "\n";
+       chomp(my $oid = <$r>);
+       waitpid($pid, 0) == $pid or die "git hash-object did not finish";
+       die "git hash-object failed: $?" if $?;
+       $oid =~ /\A[a-f0-9]{40}\z/ or die "OID not expected: $oid";
+       $oid;
+}
+
+sub _check_mids_match ($$$) {
+       my ($old_list, $new_list, $hdrs) = @_;
+       my %old_mids = map { $_ => 1 } @$old_list;
+       my %new_mids = map { $_ => 1 } @$new_list;
+       my @old = keys %old_mids;
+       my @new = keys %new_mids;
+       my $err = "$hdrs may not be changed when replacing\n";
+       die $err if scalar(@old) != scalar(@new);
+       delete @new_mids{@old};
+       delete @old_mids{@new};
+       die $err if (scalar(keys %old_mids) || scalar(keys %new_mids));
+}
+
+# Changing Message-IDs or References with ->replace isn't supported.
+# The rules for dealing with messages with multiple or conflicting
+# Message-IDs are pretty complex and rethreading hasn't been fully
+# implemented, yet.
+sub check_mids_match ($$) {
+       my ($old_mime, $new_mime) = @_;
+       my $old = $old_mime->header_obj;
+       my $new = $new_mime->header_obj;
+       _check_mids_match(mids($old), mids($new), 'Message-ID(s)');
+       _check_mids_match(references($old), references($new),
+                       'References/In-Reply-To');
+}
+
+# public
+sub replace ($$$) {
+       my ($self, $old_mime, $new_mime) = @_;
+
+       check_mids_match($old_mime, $new_mime);
+
+       # mutt will always add Content-Length:, Status:, Lines: when editing
+       PublicInbox::Import::drop_unwanted_headers($new_mime);
+
+       my $raw = $new_mime->as_string;
+       my $expect_oid = git_hash_raw($self, \$raw);
+       my $rewritten = _replace($self, $old_mime, $new_mime, \$raw) or return;
+       my $need_reindex = $rewritten->{need_reindex};
+
+       # just in case we have bugs in deduplication code:
+       my $n = scalar(@$need_reindex);
+       if ($n > 1) {
+               my $list = join(', ', map {
+                                       "$_->{num}: <$_->{mid}>"
+                               } @$need_reindex);
+               warn <<"";
+W: rewritten $n messages matching content of original message (expected: 1).
+W: possible bug in public-inbox, NNTP article IDs and Message-IDs follow:
+W: $list
+
+       }
+
+       # make sure we really got the OID:
+       my ($oid, $type, $len) = $self->{-inbox}->git->check($expect_oid);
+       $oid eq $expect_oid or die "BUG: $expect_oid not found after replace";
+
+       # don't leak FDs to Xapian:
+       $self->{-inbox}->git->cleanup;
+
+       # reindex modified messages:
+       for my $smsg (@$need_reindex) {
+               my $num = $smsg->{num};
+               my $mid0 = $smsg->{mid};
+               do_idx($self, \$raw, $new_mime, $len, $num, $oid, $mid0);
        }
-       $purges;
+       $rewritten->{rewrites};
 }
 
-sub last_commit_part ($$;$) {
+sub last_epoch_commit ($$;$) {
        my ($self, $i, $cmt) = @_;
        my $v = PublicInbox::Search::SCHEMA_VERSION();
        $self->{mm}->last_commit_xap($v, $i, $cmt);
@@ -434,7 +569,7 @@ sub set_last_commits ($) {
        foreach my $i (0..$epoch_max) {
                defined(my $cmt = $last_commit->[$i]) or next;
                $last_commit->[$i] = undef;
-               last_commit_part($self, $i, $cmt);
+               last_epoch_commit($self, $i, $cmt);
        }
 }
 
@@ -452,7 +587,7 @@ sub barrier_wait {
        while (scalar keys %$barrier) {
                defined(my $l = $r->getline) or die "EOF on barrier_wait: $!";
                $l =~ /\Abarrier (\d+)/ or die "bad line on barrier_wait: $l";
-               delete $barrier->{$1} or die "bad part[$1] on barrier wait";
+               delete $barrier->{$1} or die "bad shard[$1] on barrier wait";
        }
 }
 
@@ -467,8 +602,8 @@ sub checkpoint ($;$) {
                        $im->checkpoint;
                }
        }
-       my $parts = $self->{idx_parts};
-       if ($parts) {
+       my $shards = $self->{idx_shards};
+       if ($shards) {
                my $dbh = $self->{mm}->{dbh};
 
                # SQLite msgmap data is second in importance
@@ -479,19 +614,19 @@ sub checkpoint ($;$) {
 
                # Now deal with Xapian
                if ($wait) {
-                       my $barrier = $self->barrier_init(scalar @$parts);
+                       my $barrier = $self->barrier_init(scalar @$shards);
 
-                       # each partition needs to issue a barrier command
-                       $_->remote_barrier for @$parts;
+                       # each shard needs to issue a barrier command
+                       $_->remote_barrier for @$shards;
 
-                       # wait for each Xapian partition
+                       # wait for each Xapian shard
                        $self->barrier_wait($barrier);
                } else {
-                       $_->remote_commit for @$parts;
+                       $_->remote_commit for @$shards;
                }
 
                # last_commit is special, don't commit these until
-               # remote partitions are done:
+               # remote shards are done:
                $dbh->begin_work;
                set_last_commits($self);
                $dbh->commit;
@@ -514,14 +649,14 @@ sub done {
        checkpoint($self);
        my $mm = delete $self->{mm};
        $mm->{dbh}->commit if $mm;
-       my $parts = delete $self->{idx_parts};
-       if ($parts) {
-               $_->remote_close for @$parts;
+       my $shards = delete $self->{idx_shards};
+       if ($shards) {
+               $_->remote_close for @$shards;
        }
        $self->{over}->disconnect;
        delete $self->{bnote};
        $self->{transact_bytes} = 0;
-       $self->lock_release if $parts;
+       $self->lock_release if $shards;
        $self->{-inbox}->git->cleanup;
 }
 
@@ -574,7 +709,7 @@ sub git_dir_latest {
        my $latest;
        opendir my $dh, $pfx or die "opendir $pfx: $!\n";
        while (defined(my $git_dir = readdir($dh))) {
-               $git_dir =~ m!\A(\d+)\.git\z! or next;
+               $git_dir =~ m!\A([0-9]+)\.git\z! or next;
                if ($1 > $$max) {
                        $$max = $1;
                        $latest = "$pfx/$git_dir";
@@ -689,8 +824,8 @@ sub atfork_child {
        my ($self) = @_;
        my $fh = delete $self->{reindex_pipe};
        close $fh if $fh;
-       if (my $parts = $self->{idx_parts}) {
-               $_->atfork_child foreach @$parts;
+       if (my $shards = $self->{idx_shards}) {
+               $_->atfork_child foreach @$shards;
        }
        if (my $im = $self->{im}) {
                $im->atfork_child;
@@ -772,15 +907,8 @@ sub reindex_oid ($$$$) {
        }
        $sync->{mm_tmp}->mid_delete($mid0) or
                die "failed to delete <$mid0> for article #$num\n";
-
-       $self->{over}->add_overview($mime, $len, $num, $oid, $mid0);
-       my $nparts = $self->{partitions};
-       my $part = $num % $nparts;
-       my $idx = $self->idx_part($part);
-       $idx->index_raw($len, $msgref, $num, $oid, $mid0, $mime);
-       my $n = $self->{transact_bytes} += $len;
        $sync->{nr}++;
-       if ($n > (PublicInbox::SearchIdx::BATCH_BYTES * $nparts)) {
+       if (do_idx($self, $msgref, $mime, $len, $num, $oid, $mid0)) {
                $git->cleanup;
                $sync->{mm_tmp}->atfork_prepare;
                $self->done; # release lock
@@ -799,13 +927,13 @@ sub reindex_oid ($$$$) {
 # only update last_commit for $i on reindex iff newer than current
 sub update_last_commit ($$$$) {
        my ($self, $git, $i, $cmt) = @_;
-       my $last = last_commit_part($self, $i);
+       my $last = last_epoch_commit($self, $i);
        if (defined $last && is_ancestor($git, $last, $cmt)) {
                my @cmd = (qw(rev-list --count), "$last..$cmt");
                chomp(my $n = $git->qx(@cmd));
                return if $n ne '' && $n == 0;
        }
-       last_commit_part($self, $i, $cmt);
+       last_epoch_commit($self, $i, $cmt);
 }
 
 sub git_dir_n ($$) { "$_[0]->{-inbox}->{mainrepo}/git/$_[1].git" }
@@ -814,7 +942,7 @@ sub last_commits ($$) {
        my ($self, $epoch_max) = @_;
        my $heads = [];
        for (my $i = $epoch_max; $i >= 0; $i--) {
-               $heads->[$i] = last_commit_part($self, $i);
+               $heads->[$i] = last_epoch_commit($self, $i);
        }
        $heads;
 }
@@ -885,7 +1013,7 @@ sub sync_prepare ($$$) {
        for (my $i = $epoch_max; $i >= 0; $i--) {
                die 'BUG: already indexing!' if $self->{reindex_pipe};
                my $git_dir = git_dir_n($self, $i);
-               -d $git_dir or next; # missing parts are fine
+               -d $git_dir or next; # missing epochs are fine
                my $git = PublicInbox::Git->new($git_dir);
                if ($reindex_heads) {
                        $head = $reindex_heads->[$i] or next;
@@ -920,7 +1048,7 @@ sub sync_prepare ($$$) {
 
 sub unindex_oid_remote ($$$) {
        my ($self, $oid, $mid) = @_;
-       $_->remote_remove($oid, $mid) foreach @{$self->{idx_parts}};
+       $_->remote_remove($oid, $mid) foreach @{$self->{idx_shards}};
        $self->{over}->remove_oid($oid, $mid);
 }
 
@@ -995,7 +1123,7 @@ sub index_epoch ($$$) {
 
        my $git_dir = git_dir_n($self, $i);
        die 'BUG: already reindexing!' if $self->{reindex_pipe};
-       -d $git_dir or return; # missing parts are fine
+       -d $git_dir or return; # missing epochs are fine
        fill_alternates($self, $i);
        my $git = PublicInbox::Git->new($git_dir);
        if (my $unindex_range = delete $sync->{unindex_range}->{$i}) {