]> Sergey Matveev's repositories - feeder.git/commitdiff
Unify redirection operator usage
authorSergey Matveev <stargrave@stargrave.org>
Thu, 19 Sep 2024 13:54:31 +0000 (16:54 +0300)
committerSergey Matveev <stargrave@stargrave.org>
Thu, 19 Sep 2024 13:54:58 +0000 (16:54 +0300)
13 files changed:
cmd/do-in-parallel
cmd/download
cmd/encs
cmd/env.rc
cmd/muttrc-gen
cmd/parse
cmd/warcs
doc/usage/clear.texi
doc/usage/feedsdir.texi
doc/usage/warcs.texi
feeds-browse
opml2feeds
urls2feeds

index dc14114e487bb8398321438828ac255c6965f43d..5c0ff3f19fd55025dd1c3ffd633d2cc471720d8b 100755 (executable)
@@ -6,5 +6,5 @@ log=$1.log
 ${=PARALLEL} --jobs ${(P)2} --joblog $log $3 ::: feeds/* || rc=$?
 fpath=($cmds/functions.zsh $fpath)
 autoload print-joblog-failed
-print-joblog-failed < $log
+print-joblog-failed <$log
 exit ${rc:-0}
index cee1b45bd5559f2726c96d0e5638d16b5be2c47e..26ee3a488afc8fd7c3e6d10e9b9ce7a53e821d66 100755 (executable)
@@ -3,7 +3,7 @@
 cmds="$(dirname "$(realpath -- "$0")")"
 . "$cmds/env.rc"
 cd "$1"
-read url < url
+read url <url
 [ -s etag ] && etag_compare="--etag-compare etag" || :
 [ -r out ] && time_cond="--time-cond out" || :
 [ -z "$FEEDER_CURL_VERBOSE" ] && silent="--silent" || silent="--verbose"
@@ -22,9 +22,9 @@ ${CURL:-curl} --fail \
     $silent \
     "$url" >&2
 if [ -s out ] ; then
-    $ZSTD < out > feed.zst
-    touch -r out feed.zst
+    cp out feed
+    touch -r out feed
     truncate -s 0 out
-    touch -r feed.zst out
+    touch -r feed out
 fi
-$SHA512 < feed.zst > download.hash
+$SHA512 <feed >download.hash
index d16ab5efdbc9cfca0ca2ed9125842491ebcea969..0b3d630462bac66a27c171684f6f51fa2d42c9bf 100755 (executable)
--- a/cmd/encs
+++ b/cmd/encs
@@ -20,5 +20,5 @@ for new (new/*(N)) {
         ${=WGET} --user-agent=$FEEDER_USER_AGENT \
             --output-document=$dst/$fn $url 2>&2 2>encs.log
         print $dst/$fn
-    done < $new
+    done <$new
 }
index b33b15cceac8d31bf0bbde1ea37c014e2cdce0c0..49326804f365cc818c65c55baea999b28cb5b0ea 100644 (file)
@@ -16,7 +16,7 @@ command -v sha512 >/dev/null && SHA512="sha512" || SHA512="sha512sum --binary"
 
 _feeder_warc_compress() {
     $HOME/work/tofuproxy/warc-extract.cmd -for-enzstd "$1" |
-    $HOME/work/tofuproxy/cmd/zstd/enzstd > "$1".zst
+    $HOME/work/tofuproxy/cmd/zstd/enzstd >"$1".zst
     rm "$1"
 }
 
index a64d62ddba5e09c7e463849a15325932c2fdf8d5..97e44856e844208b906ce7b3572066cd43c08855 100755 (executable)
@@ -63,7 +63,7 @@ for f in feeds/* ; do
         echo unreadable $f/title >&2
         continue
     }
-    read title < $f/title
+    read title <$f/title
     [ -n "$title" ] && label="-label \"$title\"" || :
     echo mailboxes $label $f
     echo "folder-hook $f \"macro index r '<shell-escape>$cmds/dnp $f\n<change-folder>=$f\n'\""
index 5b598932a1c12fb77015fe001b8fe889a94c199d..ab830b54c43c4fa43409945e93a7a560424cbcdf 100755 (executable)
--- a/cmd/parse
+++ b/cmd/parse
@@ -9,4 +9,4 @@ cd "$1"
 [ -s max ] && max=`cat max` || max=$FEEDER_MAX_ITEMS
 $ZSTD -d < feed.zst | $cmds/feed2mdir/feed2mdir -max-entries $max . > title.tmp
 mv title.tmp title
-echo "$hash_their" > parse.hash
+echo "$hash_their" >parse.hash
index 7934b63c2182230168870bedaf17f01ae4d127cb..42516af8f979cbe4e308e05ee8f9d17a59d7718a 100755 (executable)
--- a/cmd/warcs
+++ b/cmd/warcs
@@ -34,5 +34,5 @@ for new (new/*(N)) {
         ${=WGET} $wget_opts --output-file=warcs.log --warc-file=$dst/$fn $url
         $FEEDER_WARC_COMPRESS $dst/$fn.warc
         print $dst/$fn.warc*
-    done < $new
+    done <$new
 }
index 59f6cddc28cf4629004e87a3e5f5d79086b44111..537b91a7ac29f6354e3aae58e167de0a9e6a3e05 100644 (file)
@@ -14,7 +14,7 @@ Parser only appends posts, but does not remove obsolete ones.
 You can set that limit on per-feed basis:
 
 @example
-$ echo 50 > feed/FEED/max
+$ echo 50 >feed/FEED/max
 @end example
 
 @strong{0} means no limit and keep all the messages.
index 48fcb8ac81c77aafecb46bbe3b4e24f9731a6732..a2df99215df97d52bb76c236b1909be699f3dbe5 100644 (file)
@@ -6,14 +6,14 @@ manually:
 
 @example
 $ mkdir -p feeds/my_first_feed/@{cur,new,tmp@}
-$ echo http://example.com/feed.atom > feeds/my_first_feed/url
+$ echo http://example.com/feed.atom >feeds/my_first_feed/url
 @end example
 
 Or you can convert Newsboat @file{urls} file (containing many lines with
 URLs) with @command{urls2feeds} to subdirectories hierarchy:
 
 @example
-$ ./urls2feeds < ~/.newsboat/urls
+$ ./urls2feeds <~/.newsboat/urls
 $ cat feeds/blog.stargrave.org_russian_feed.atom/url
 http://blog.stargrave.org/russian/feed.atom
 @end example
index 33c206c1054cf1c82ca9098fa2ea94dbad72fc1f..9288b7f3d3327543110b192dd6b94fc19e38829b 100644 (file)
@@ -22,7 +22,7 @@ help as an option. After you get pile of various @file{*.warc} files,
 you can simply add them to running @command{tofuproxy}:
 
 @example
-$ for w (feeds/*/warcs/*.warc) print $w:a > path/to/tofuproxy/fifos/add-warcs
+$ for w (feeds/*/warcs/*.warc) print $w:a >path/to/tofuproxy/fifos/add-warcs
 @end example
 
 And then visit @url{http://warc/} URL (when @command{tofuproxy} already
index 8ccfda66501a800412d6b52111a5bcfde2971453..252b60883fd24c6054c4da53049070209e8e0779 100755 (executable)
@@ -2,7 +2,7 @@
 cmds="$(dirname "$(realpath -- "$0")")"/cmd
 muttrc_their="$($cmds/muttrc-gen)"
 [ -r mutt.rc ] && muttrc_our="$(cat mutt.rc)" || :
-[ "$muttrc_our" = "$muttrc_their" ] || cat > mutt.rc <<EOF
+[ "$muttrc_our" = "$muttrc_their" ] || cat >mutt.rc <<EOF
 $muttrc_their
 EOF
 MUHOME="$PWD/mu" mutt -e "source mutt.rc" -y
index 6234d2e1c5d01ef941f52ac5ea1da6111f1e5e20..6392eda55d80b3c556893fcd786373da96f7f25b 100755 (executable)
@@ -8,6 +8,6 @@ ${XML:-xml} sel -T -t -m opml/body/outline -v @xmlUrl -n -v @text -n |
 while read url ; do
        read dir
        mkdir -p -- "$dir"/cur "$dir"/new "$dir"/tmp # make it maildir
-       echo "$url" > "$dir"/url
+       echo "$url" >"$dir"/url
        printf "%s\n" "$dir"
 done
index 90b1341ad3202daae66583c74f91cec151262444..9761228141f38606ab8cd649cce49b581bc94a4d 100755 (executable)
@@ -10,7 +10,7 @@ while read url ; do
     seen[$dir]=1
     [[ -e $dir ]] && continue || :
     mkdir -p $dir/{cur,new,tmp} # make it maildir
-    print -- "$url" > $dir/url
+    print -- "$url" >$dir/url
     print $dir
 done
 for dir (feeds/*) [[ $seen[$dir] -eq 1 ]] || print disappeared: $dir