2020年4月8日水曜日

Sonatype Nexus IQ v89がリリースされました

https://help.sonatype.com/iqserver/product-information/release-notes#ReleaseNotes-Release89(April2020)

この間(先週?)v88が出たと思ったら、もうv89です。

気になる変更点:

PDFレポートが変わりました。

見た目がずいぶんシンプルになりました。そのためか、パフォーマンスも良くなったと書いてあります。
PDF作成用のライブラリが更新されたということは、今後サポートされるJavaバージョンも最新のものがサポートされるかもしれません。

RとRustアプリケーション分析

どっちの言語も使わないので、個人的には関係ないですが、使う方にはもちろん有用だと思います。

ちなみにv88では、Swift/Object-CとCondaが追加されていました。

2020年3月18日水曜日

Sonatype Nexus IQ v87がリリースされました

https://help.sonatype.com/display/NXIQ/2020+Release+Notes#id-2020ReleaseNotes-Release87(March2020)

注目の追加点は、C/C++, PHP, Rubyがサポートされた点です。
PHPはまだまだ使用されている開発者も多いと思いますので、有用な追加点ではないでしょうか。
https://help.sonatype.com/iqserver/analysis/php-application-analysis によると、composer.lockファイルを基に脆弱性の検査が行われるようです。


あと、記載されていないのですが、内蔵のH2データベースを使用されている場合は、パフォーマンスの向上が見込めるかもしれません。

2020年2月27日木曜日

Sonatype Nexus IQ v85がリリースされました

この間v84がリリースされたばかりですが、もうv85がリリースされました。
https://help.sonatype.com/iqserver/product-information/release-notes/2020-release-notes

個人的に、注目の追加点はふたつです。

New Component Category Policy Condition

コンポーネントカテゴリーとは、https://help.sonatype.com/iqserver/managing/policy-management/understanding-the-parts-of-a-policyを読むと、一行以下の文章があります…
Verify if the component category is or is not a specified category.  If you've used the Component Information Panel, the Category is specified there.  If a parent category is selected, a match will occur on any child category as well.
要は、CONSTRAINTSのコンディションに"Component Category"が追加されました。
で、色々カテゴリーが選べるのですが、どのカテゴリーを選べばいいかは、Component Information Panel (CIP)を見てください、ってことですね。

New Component Claim REST API

https://help.sonatype.com/iqserver/automating/rest-apis/component-claim-rest-api---v2
https://help.sonatype.com/iqserver/reporting/application-composition-report/component-identification#ComponentIdentification-ClaimingaComponent
"Claim"とは、どういうことだと思った方は、二つ目のリンクにちょっと説明があります。
Similarマッチの時に、どのコンポーネントかを指定する(クレイムする)って事ですね。
これが、APIでできるようになったと。



Helmサポート

Sonatype Nexus Repository Manager (NXRM3) 3.21.1からHelmフォーマットがサポートされました。

Sonatype公式の簡単な動作紹介ビデオ:https://play.vidyard.com/n3z5jJPLnUav3oiz8pkCbh.jpg
Sonatypeドキュメント:https://help.sonatype.com/repomanager3/formats/helm-repositories

Helmとは:https://helm.sh/
Kubernetesは今注目のテクノロージーなので、ぜひ試してみてください。

2020年2月20日木曜日

Sonatype Nexus Repository Manager (NXRM3) 3.21.1がリリースされました

https://help.sonatype.com/repomanager3/release-notes/2020-release-notes#id-2020ReleaseNotes-RepositoryManager3.21.0

主な変更点

公式に、p2とHelmフォーマットがサポートされました。
これでコミュニティのプラグインをいちいちインストール必要がなくなりましたね。

あとNuGet V3がサポートされました。
V2はパフォーマンスに問題があったそうなので、V3を使用することによってNuGetレポジトリのパフォーマンス向上に期待できそうです。

2020年2月18日火曜日

Sonatype Nexus IQ v84がリリースされました

https://help.sonatype.com/iqserver/product-information/release-notes#ReleaseNotes-Release84(February2020)

主な変更点

HTTPプロキシの設定がconfig.ymlからデータベース内(H2かPostgreSQL)に変更されました。
アップグレード時に自動で移行される模様です。(アップグレード後はconfig.ymlのプロキシ設定は無視される)
Eメールの設定も同様に、config.ymlからデータベース内になりました(v83から)

あと気になるのは、NPMの自動プルリクエスト作成に対応。
https://help.sonatype.com/integrations/nexus-iq-for-scm/automated-pull-requests

2019年3月18日月曜日

Standalone Spark and Spark Thrift Server

Install

su - spark # or spark service user

cd /var/tmp/share
curl --retry 3 -C - -O https://archive.apache.org/dist/spark/spark-2.3.3/spark-2.3.3-bin-hadoop2.7.tgz

mkdir -p /usr/local/apache-spark
tar -xf /var/tmp/share/spark-2.3.3-bin-hadoop2.7.tgz -C /usr/local/apache-spark/

Setup / Start

su - spark # or spark service user

alternatives --display java | grep currently
 link currently points to /usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-3.b13.el7_5.x86_64/jre/bin/java

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-3.b13.el7_5.x86_64/jre

/usr/local/apache-spark/spark-2.3.3-bin-hadoop2.7/sbin/start-thriftserver.sh --hiveconf hive.metastore.warehouse.dir=/user/hive/warehouse --hiveconf hive.server2.thrift.port=10000 --executor-memory 2g
starting org.apache.spark.sql.hive.thriftserver.HiveThriftServer2, logging to /usr/local/apache-spark/spark-2.3.3-bin-hadoop2.7/logs/spark-atscale-org.apache.spark.sql.hive.thriftserver.HiveThriftServer2-1-spark.standalone.localdomain.out

TEST:

/usr/local/apache-spark/spark-2.3.3-bin-hadoop2.7/bin/beeline -u "jdbc:hive2://localhost:10000/" -e "CREATE DATABASE IF NOT EXISTS default;SHOW DATABASES;"

NOTE:

To specify an existing derby metastore location:
--hiveconf javax.jdo.option.ConnectionURL=jdbc:derby:/usr/local/apache-spark/metastore_db