]> Sergey Matveev's repositories - public-inbox.git/blobdiff - lib/PublicInbox/V2Writable.pm
run update-copyrights from gnulib for 2019
[public-inbox.git] / lib / PublicInbox / V2Writable.pm
index 502824c85327bc8c06d52a636c113a7384e23f94..45250923d3325e07aafaf4bb8c2f01fa2ac55a11 100644 (file)
@@ -1,4 +1,4 @@
-# Copyright (C) 2018 all contributors <meta@public-inbox.org>
+# Copyright (C) 2018-2019 all contributors <meta@public-inbox.org>
 # License: AGPL-3.0+ <https://www.gnu.org/licenses/agpl-3.0.txt>
 
 # This interface wraps and mimics PublicInbox::Import
@@ -24,7 +24,7 @@ use IO::Handle;
 my $PACKING_FACTOR = 0.4;
 
 # SATA storage lags behind what CPUs are capable of, so relying on
-# nproc(1) can be misleading and having extra Xapian partions is a
+# nproc(1) can be misleading and having extra Xapian shards is a
 # waste of FDs and space.  It can also lead to excessive IO latency
 # and slow things down.  Users on NVME or other fast storage can
 # use the NPROC env or switches in our script/public-inbox-* programs
@@ -57,7 +57,7 @@ sub count_shards ($) {
        my $n = 0;
        my $xpfx = $self->{xpfx};
 
-       # always load existing partitions in case core count changes:
+       # always load existing shards in case core count changes:
        # Also, shard count may change while -watch is running
        # due to "xcpdb --reshard"
        if (-d $xpfx) {
@@ -292,7 +292,7 @@ sub idx_init {
                        $self->{shards} = $nshards;
                }
 
-               # need to create all parts before initializing msgmap FD
+               # need to create all shards before initializing msgmap FD
                my $max = $self->{shards} - 1;
 
                # idx_shards must be visible to all forked processes
@@ -556,7 +556,7 @@ W: $list
        $rewritten->{rewrites};
 }
 
-sub last_commit_part ($$;$) {
+sub last_epoch_commit ($$;$) {
        my ($self, $i, $cmt) = @_;
        my $v = PublicInbox::Search::SCHEMA_VERSION();
        $self->{mm}->last_commit_xap($v, $i, $cmt);
@@ -569,7 +569,7 @@ sub set_last_commits ($) {
        foreach my $i (0..$epoch_max) {
                defined(my $cmt = $last_commit->[$i]) or next;
                $last_commit->[$i] = undef;
-               last_commit_part($self, $i, $cmt);
+               last_epoch_commit($self, $i, $cmt);
        }
 }
 
@@ -616,17 +616,17 @@ sub checkpoint ($;$) {
                if ($wait) {
                        my $barrier = $self->barrier_init(scalar @$shards);
 
-                       # each partition needs to issue a barrier command
+                       # each shard needs to issue a barrier command
                        $_->remote_barrier for @$shards;
 
-                       # wait for each Xapian partition
+                       # wait for each Xapian shard
                        $self->barrier_wait($barrier);
                } else {
                        $_->remote_commit for @$shards;
                }
 
                # last_commit is special, don't commit these until
-               # remote partitions are done:
+               # remote shards are done:
                $dbh->begin_work;
                set_last_commits($self);
                $dbh->commit;
@@ -927,13 +927,13 @@ sub reindex_oid ($$$$) {
 # only update last_commit for $i on reindex iff newer than current
 sub update_last_commit ($$$$) {
        my ($self, $git, $i, $cmt) = @_;
-       my $last = last_commit_part($self, $i);
+       my $last = last_epoch_commit($self, $i);
        if (defined $last && is_ancestor($git, $last, $cmt)) {
                my @cmd = (qw(rev-list --count), "$last..$cmt");
                chomp(my $n = $git->qx(@cmd));
                return if $n ne '' && $n == 0;
        }
-       last_commit_part($self, $i, $cmt);
+       last_epoch_commit($self, $i, $cmt);
 }
 
 sub git_dir_n ($$) { "$_[0]->{-inbox}->{mainrepo}/git/$_[1].git" }
@@ -942,7 +942,7 @@ sub last_commits ($$) {
        my ($self, $epoch_max) = @_;
        my $heads = [];
        for (my $i = $epoch_max; $i >= 0; $i--) {
-               $heads->[$i] = last_commit_part($self, $i);
+               $heads->[$i] = last_epoch_commit($self, $i);
        }
        $heads;
 }
@@ -1013,7 +1013,7 @@ sub sync_prepare ($$$) {
        for (my $i = $epoch_max; $i >= 0; $i--) {
                die 'BUG: already indexing!' if $self->{reindex_pipe};
                my $git_dir = git_dir_n($self, $i);
-               -d $git_dir or next; # missing parts are fine
+               -d $git_dir or next; # missing epochs are fine
                my $git = PublicInbox::Git->new($git_dir);
                if ($reindex_heads) {
                        $head = $reindex_heads->[$i] or next;
@@ -1123,7 +1123,7 @@ sub index_epoch ($$$) {
 
        my $git_dir = git_dir_n($self, $i);
        die 'BUG: already reindexing!' if $self->{reindex_pipe};
-       -d $git_dir or return; # missing parts are fine
+       -d $git_dir or return; # missing epochs are fine
        fill_alternates($self, $i);
        my $git = PublicInbox::Git->new($git_dir);
        if (my $unindex_range = delete $sync->{unindex_range}->{$i}) {