Хабрахабр

Project Loom: виртуальные потоки в Java уже близко

Несколько дней назад Ron Pressler разродился статьей State of Loom, которую не полайкал только самый ленивый джавист. Статья действительно хорошая, в ней много интересных метафор, которые я собираюсь бессовестно использовать теперь без ссылки на первоисточник.

Со своей стороны я неосторожно позволил высказать некоторый скептицизм, когда же с этим Project Loom можно будет наконец-то реально поработать. Спустя буквально час прилетела ответочка от самого Ron'а — «а ты попробуй!». Что ж, пришлось пробовать.
Что потребовалось для эксперимента:

Для начала я решил посмотреть, как будет выглядеть классический пример с потоками из документации к Kotlin Coroutines. Пример написан на Kotlin, но переписать его на Java не составит труда:

public class Main { public static void main(String[] args) { var c = new AtomicLong(); for (var i = 0; i < 1_000_000; i++) { new Thread(() -> { c.incrementAndGet(); }).start(); } System.out.println(c.get()); }}

Запускаем и убеждаемся, что пример все еще виснет, как и раньше:

javac Main.java && java Main

Теперь перепишем пример используя виртуальные потоки, которые нам предоставляет Project Loom:

for (var i = 0; i < 1_000_000; i++) { Thread.startVirtualThread(() -> { c.incrementAndGet(); });}

Результат не заставляет себя долго ждать:

1000000

Насколько долго?

Тут я намеренно не стал замерять, насколько быстро вернулся результат.
Во-первых, как не устает повторять Gil Tene, хорошие микробенчмарки — это сложно и долго.
Во-вторых, это было бы пока несправедливо к Project Loom, все еще находящемуся в бете. Порешим, что программа не зависла — уже хорошо.

Но само по себе это меня не слишком впечатлило. В конце-то концов, с coroutine'ами в Kotlin легко достигается тот же результат.

Рон в своей статье верно подмечает, что в Kotlin пришлось ввести функцию delay(), которая позволяет корутине «уснуть», поскольку Thread.sleep() отправляет «спать» не текущую корутину, а текущий scheduler thread, которых не много, обычно по количеству CPU.

А как с этим обстоят дела в Project Loom?

for (var i = 0; i < 1_000_000; i++) { Thread.startVirtualThread(() -> { c.incrementAndGet(); try { Thread.sleep(1_000); } catch (InterruptedException e) { e.printStackTrace(); } });}

Результат:

где-то 400K

А вот это уже интересно! С Project Loom вызов Thread.sleep() умеет отличать, находится ли он в обычном потоке, или же в виртуальном, и срабатывает по разному.

Это уже само по себе весьма круто. Но давайте копнем еще чуть глубже:

var threads = new ArrayList<Thread>();var cores = 10;for (var i = 0; i < cores; i++) { var t = Thread.startVirtualThread(() -> { var bestUUID = ""; for (var j = 0; j < 1_000_000; j++) { var currentUUID = UUID.randomUUID().toString(); if (currentUUID.compareTo(bestUUID) > 0) { bestUUID = currentUUID; } } System.out.println("Best slow UUID is " + bestUUID); }); threads.add(t);} for (var i = 0; i < cores; i++) { var t = Thread.startVirtualThread(() -> { var bestUUID = UUID.randomUUID().toString(); System.out.println("Best fast UUID is " + bestUUID); }); threads.add(t);} for (Thread t : threads) { t.join();}

Тут мы запускаем 10 медленных задач и 10 быстрых задач. Быстрые задачи быстрей медленных в миллион раз, так что логично было бы предположить, что завершаться они раньше.

Но не тут то было:

Best slow UUID is fffffde4-8c70-4ce6-97af-6a1779c206e1Best slow UUID is ffffe33b-f884-4206-8e00-75bd78f6d3bdBest slow UUID is fffffeb8-e972-4d2e-a1f8-6ff8aa640b70Best fast UUID is e13a226a-d335-4d4d-81f5-55ddde69e554Best fast UUID is ec99ed73-23b8-4ab7-b2ff-7942442a13a9Best fast UUID is c0cbc46d-4a50-433c-95e7-84876a338212Best fast UUID is c7672507-351f-4968-8cd2-2f74c754485cBest fast UUID is d5ae642c-51ce-4b47-95db-abb6965d21c2Best fast UUID is f2f942e3-f475-42b9-8f38-93d89f978578Best fast UUID is 469691ee-da9c-4886-b26e-dd009c8753b8Best fast UUID is 0ceb9554-a7e1-4e37-b477-064c1362c76eBest fast UUID is 1924119e-1b30-4be9-8093-d5302b0eec5fBest fast UUID is 94fe1afc-60aa-43ce-a294-f70f3011a424Best slow UUID is fffffc24-28c5-49ac-8e30-091f1f9b2cafBest slow UUID is fffff303-8ec1-4767-8643-44051b8276caBest slow UUID is ffffefcb-614f-48e0-827d-5e7d4dea1467Best slow UUID is fffffed1-4348-456c-bc1d-b83e37d953dfBest slow UUID is fffff6d6-6250-4dfd-8d8d-10425640cc5aBest slow UUID is ffffef57-c3c3-46f5-8ac0-6fad83f9d4d6Best slow UUID is fffff79f-63a6-4cfa-9381-ee8959a8323d

Интуиция работает лишь до тех пор, пока количество медленных задач меньше, чем количество ядер вашего CPU.

Причина проста — в данный момент Project Loom использует обычный ForkJoinPool. В итоге, не смотря на то, что в документации и по задумке указано, что виртуальные потоки preemtive, в данный момент они ведут себя на cooperative манер. Как и корутины в Kotlin'е.

Следует отметить, что в вышеупомянутой статье Рон упоминает, что размышляет и о forced preemtion поведении, как у обычных потоков. Но пока это не реализовано, потому что не до конца понятно, насколько такое поведение полезно, когда потоков могут быть десятки тысяч. Тем не менее, в Go 1.14 forced preemtion незаметно ввели.

Вызов функции, в отличие от Go, не приводит к context switch'у. Suspend, как в Kotlin, тоже не завезли. Но можно обойтись Thread.yield(), или вызовом любой Java IO функции: System.out.println(" "), к примеру.

Рассчет прост — большинство реальных программ используют blocking IO достаточно часто. И именно его использование Project Loom и стремится решить в первую очередь.

Немного выводов:

Вынужден признать, что не смотря на мой первоначальный скепсис, Project Loom меня положительно впечатлил. Для обычных Java пользователей, он обещает легковесную многопоточность без нужды в переходе на другой язык, использовании библиотеки или фреймворка. Что уже звучит неплохо.

Но основную революции, как я ожидаю, это проект совершит среди разработчиков библиотек, которым до сих пор приходилось решать проблему concurrency снова, и снова, и снова. Теперь же, с распространением JDK15, это проблему можно будет переложить на JVM, как раньше перекладывали на JVM оптимизацию памяти (GC) и кода (JIT).

Ссылка на мою оригинальную статью, если вы предпочитаете читать на английском.

Теги
Показать больше

Похожие статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Закрыть