Se connecter
Se connecter

ou
Créer un compte

ou
Agrandir
Ajouter ce produit à
  • Mon ancien matos
  • Mon matos actuel
  • Mon futur matos
IK Multimedia Amplitube Mesa/Boogie
Photos
1/26
IK Multimedia Amplitube Mesa/Boogie

Simulateur d'ampli/baffle logiciel pour guitare/basse de la marque IK Multimedia appartenant à la série Amplitube

Écrire un avis ou Demander un avis

Sujet Commentaires sur la news : Mesa/Boogie débarque dans AmpliTube

  • 32 réponses
  • 16 participants
  • 6 993 vues
  • 16 followers
1 Commentaires sur la news : Mesa/Boogie débarque dans AmpliTube
IK Multimedia a ouvert les réservations de sa nouvelle collection d’amplis et baffles guitare de série AmpliTube, entièrement dédiée à Mesa/Boogie.

Lire la news
 


Ce thread a été créé automatiquement suite à la publication d'une news pour ce produit. N'hésitez pas à poster vos commentaires ici !
Afficher le premier post
11
Ah ok, j'ai dit une connerie alors. Mais qu'en ai t'il des améliorations sur les algorythmes ? J'y connais pas grand chose dans ce domaine, mais il y a des progrès non ? :?:
12
Citation de Coramel :
Ah ok, j'ai dit une connerie alors. Mais qu'en ai t'il des améliorations sur les algorythmes ? J'y connais pas grand chose dans ce domaine, mais il y a des progrès non ? :?:

On connaît les algorithmes depuis des lustres. La résolution des équations aux dérivées partielles est utilisée depuis très longtemps, mais elle est très coûteuse. L'autre solution est de tout précalculer, ça coûte cette fois-ci en mémoire.
Tout le monde râle sur ces nouveaux plugins qui consomment beaucoup, c'est juste que pour garder le petit plus, les boîtes finissent par faire de la vraie modélisation, et plus des approximations en considérant le système sans le côté variable.
13
Merci pour ces précisions. :bravo:
En fait, on en vient de plus en plus à modéliser les composants d'un appareil, plutôt que son rendu sonore, c'est bien ça ?
14
Le rendu sonore dépend des composants...
15
Oui, évidemment. Mais tu admettras que ce n'est pas la même démarche.
J'ai souvent lu dans des interviews de programmeurs qu'au début de la modélisation de synthés hardwares, on modélisait le rendu sonore ou un comportement, alors que maintenant, la norme serait davantage de modéliser composant par composant une machine. On arriverait ainsi à un résultat plus fidèle, reproduisant davantage les défauts et qualités du matériel émulé. alors que précédemment, on était plus dans une approximation comme tu le disais toi même.
Mais peut être aussi que ce n'est que du bla bla marketing et que je me suis fais avoir...

[ Dernière édition du message le 25/07/2015 à 21:42:50 ]

16
Citation de miles1981 :
Citation de Coramel :
Je vois ce que tu veux dire, mais pour moi, c'est pas pareil. Il est indegnable que les techniques progressent, et de plus, les cpu de plus en plus puissant permettent de faire tourner des algorythmes qui ne tournaient pas avant sur d'anciens pc et mac, ou alors difficilement.

La puissance crête des processeurs ne bouge quasiment plus depuis des années, surtout pour les algos comme ceux de la modélisation.

La vitesse d'horloge oui mais pas la puissance. et le moins que l'on puisse dire c'est que la vitesse ne fait pas tout. Entre un Core 2 quad 9650 et un Core I5 4430 qui tourne exactement à la même vitesse et avec le même nombre de cœurs il y a une sacré différence de puissance de calculs.

Il faut rire de tout. C'est extrêmement important. C'est la seule humaine facon de friser la lucidité sans tomber dedans.

17
Si on compare à l'augmentation passée, c'est négligeable (et les Core 2, c'est vraiment très vieux comparé aux derniers i5, ça fait combien, 4, 5 générations ?). Il y a des améliorations par exemple pour les unités vectorielles, mais en réalité, ces améliorations ne sont pas vraiment optimales pour ce type de modélisation (pour les grosses modélisations qui ne sont pas en temps réel, ça sert un peu plus car les matrices sont plus importantes).
18
Citation :
Si on compare à l'augmentation passée, c'est négligeable (et les Core 2, c'est vraiment très vieux comparé aux derniers i5, ça fait combien, 4, 5 générations ?). Il y a des améliorations par exemple pour les unités vectorielles, mais en réalité, ces améliorations ne sont pas vraiment optimales pour ce type de modélisation (pour les grosses modélisations qui ne sont pas en temps réel, ça sert un peu plus car les matrices sont plus importantes).


Et pourtant entre le core i7 première génération que j'ai à la maison et celui récent que j'ai au bureau, il y a tout de même un gap de puissance conséquence. Dans blender par exemple, je peux observer des rendus simples en temps réel alors que chez moi ça donne automatique un slideshow.
19
Mais ce gap n'est pas aussi important qu'entre les générations précédentes. Les premiers i7 sont les Nehalem, si je me souviens bien, on est aux Haswell maintenant, 2 générations plus loin. Compare maintenant la puissance du Nehalem au Pentium 4...
Et à nouveau, Blender peut plus facilement utiliser les cores supplémentaires !
20
....si vous saviez la vitesse du cpu du kemper.... (qui est un mini ordi en quelque sorte)... toute votre théorie de puissance tomberait à l'eau (mais oui, ce n'est pas un PC ou un Mac, c'est un lecteur d'impulses)

Pour les fans du KEMPER (entraide, news, ...)  : Kemper Addict à la Francophone (sur fb)

Warlus, nos démos